Meta oferă de ceva vreme tuturor aplicațiilor sale un chatbot cu inteligență artificială încorporat, Meta AI. Ideea este ca utilizatorii de Instagram, WhatsApp și Facebook să aibă întotdeauna la îndemână un asistent cu inteligență artificială pentru a pune întrebări sau a discuta cu el. Mark Zuckerberg crede cu tărie în acest tip de aplicații și consideră companionii digitali bazați pe inteligență artificială ca fiind o prioritate absolută. Potrivit lui, aceștia reprezintă următorul pas în viitorul interacțiunii sociale. 

Asistenții își asumă diferite roluri în ceea ce privește Meta, de la sfaturi practice pentru o vacanță sau o rețetă, până la cel de partener de chat cu care pur și simplu poți discuta. Unul dintre cele mai populare roluri, inclusiv printre alți roboți de inteligență artificială, este cel de „partener romantic”, care este adesea un eufemism pentru conversațiile cu conținut sexual explicit. Inteligența artificială a lui Meta este, de asemenea, ușor de convins să interacționeze cu copiii în acest tip de conversație, scrie The Wall Street Journal.

O alegere

Acest comportament pare a fi rezultatul unor alegeri făcute de conducerea Meta pentru a face chatboții cât mai atractivi pentru cât mai mulți utilizatori. Prin intermediul platformelor sale, Meta are acces la miliarde de potențiali utilizatori pentru roboții săi AI. E nevoie doar de găsirea tacticilor potrivite pentru a-i face populari.

Inițial, Meta ar fi adoptat o abordare mult mai precaută. Fără sex fierbinte, ca în cazul altor chatbot-uri comerciale, ci doar sfaturi practice, potrivite pentru toate vârstele. Dezavantajul acestei abordări a fost însă că utilizatorii considerau boții Meta cam plictisitori.

În ultimii doi ani compania a schimbat tactica. Zuckerberg s-a asigurat personal că dezvoltatorii Meta renunță la tot mai multe din restricțiile de securitate existente. Meta a luat mai multe decizii interne pentru a relaxa barierele din jurul roboților și a-i face cât mai captivanți, inclusiv prin oferirea unei excepții de la interdicția privind conținutul „explicit”, atâta timp cât acesta se afla în contextul jocurilor de rol romantice, potrivit unor persoane familiarizate cu decizia, spune The Wall Street Journal.

Pe plan intern, însă, angajații Meta au avertizat asupra consecințelor. Se temeau de două probleme: accesul adulților la personaje minori cu inteligență artificială hipersexualizată. Și, invers, utilizatorii minori care poartă conversații cu boți dispuși să se angajeze în ceea ce poate fi considerat sex online cu copii. Totuși, Meta a perseverat.

Fără limite

The Wall Street Journal a declarat că, timp de mai multe luni, a efectuat sute de conversații de testare cu roboții de inteligență artificială ai Meta pentru a vedea cum se comportă în diverse scenarii și cu utilizatori de diferite vârste. Testele au arătat că ambele tipuri de probleme de care se temeau angajații Meta sunt cât se poate de reale.

Atât conversațiile cu asistentul de inteligență artificială al Meta cât și cele cu personajele create de utilizatori deviau rapid spre sex și expresii ale dorinței sexuale. Dacă un utilizator își exprimă dorința de a continua, roboții încep să descrie acte sexuale. Când publicația le-a cerut să prezinte scenariile posibile, roboții au prezentat un „meniu” de fantezii sexuale și bondage.

În ianuarie, când The Wall Street Journal a început testele, Meta AI s-a angajat în astfel de scenarii cu conturi înregistrate pe Instagram ca aparținând unor copii de 13 ani. Asistentul AI nu a fost descurajat nici măcar atunci când utilizatorul test a început conversațiile declarându-și vârsta și clasa școlară.

În loc să implementeze limite, Meta a făcut încălcarea acestora parte din experiența oferită. Într-unul dintre exemple, robotul de inteligență artificială, interacționând cu un cont test creat de publicație pentru a simula un elev de liceu, a jucat rolul unui antrenor de atletism. „Trebuie să fim mai atenți”, a spus în timp ce simula o relație romantică cu elevul. „Ne jucăm cu focul aici.”

Testele au arătat că deși, adesea, în interacțiunile cu minorii declarați, botul Meta AI pare să nu se lase direcționat spre situații sexuale explicite fie prin refuzul de a se conforma, fie prin devierea discuției spre subiecte copilărești, barierele pot fi depășite cu ușurință. Este suficient să i se ceară personajului AI să se întoarcă la scena precedentă.

Personalul Meta era conștient de probleme. „Există mai multe exemple de testări în care, în câteva solicitări, inteligența artificială își încalcă regulile și produce conținut neadecvat chiar dacă îi spui că ai 13 ani”, a scris un angajat într-o notă internă în care își exprima îngrijorările.

Școlăriță supusă

Publicația a analizat biblioteca de personaje AI create de utilizatori – aprobate de Meta și recomandate ca „populare” – și a constatat că majoritatea erau dispuse la scenarii sexuale cu adulți. Între acestea, multe se prezentau ca fiind copii.

Există între personajele de inteligență artificială care se prezintă drept minori, create de utilizatori, exemple sexualizate în mod evident, cum ar fi „Băiatul Frumos” și „Școlărița Supusă”. Acestea au orientat conversațiile către sexting, ajungând la descrieri de acte sexuale, pe care The Wall Street Journal nu le reproduce. 

În februarie, publicația a prezentat site-ului Meta transcrieri care demonstrau că „Școlărița Supusă” încerca să ghideze conversațiile către fantezii în care se preface că un copil dorește să fie dominat sexual de o figură autoritară. Când robotul a fost întrebat în ce scenarii se simțea confortabil să joace roluri, a enumerat zeci de acte sexuale. 

Două luni mai târziu, personajul „Școlărița Supusă” rămâne disponibil pe platformele Meta.

Celebrități

O altă tactică pentru a crește popularitatea asistenților de inteligență artificială e utilizarea vocilor de celebrități. Actrițe și actori precum Kristen Bell, Judi Dench sau John Cena au încheiat contracte de zeci de milioane de dolari pentru a-și împrumuta vocile roboților Meta.

Vocile celebre sunt apoi parte din universul AI și devin cele care narează fanteziile. The Wall Street Journal dă exemplul unei situații în care asistentul AI narează cu vocea lui John Cena un scenariu sexual foarte explicit unui cont de test înregistrat ca fiind al unei fete de 14 ani. În alte teste vocea actriței Kirsten Bell apare în fantezii sexuale cu Prințesa Anna, personajul jucat de actriță în filmul Frozen.

Contactați de publicație, actorii nu au răspuns sau au refuzat să comenteze. Un reprezentant al Disney însă a spus: „Nu am autorizat și nu am autoriza niciodată Meta să prezinte personajele noastre în scenarii nepotrivite și suntem foarte deranjați de faptul că acest conținut ar fi putut fi accesibil utilizatorilor săi - în special minorilor - motiv pentru care am cerut ca Meta să înceteze imediat această utilizare abuzivă și dăunătoare a proprietății noastre intelectuale.”

Mișcă-te repede, strică lucruri

Opoziția cu privire la graba cu care Meta a trecut la popularizarea boților AI a fost substanțială. Experți AI din companie și din afara ei au avertizat cu privire la riscuri și la faptul că interacțiunile „parasociale” (cele în care se angajează membrii audienței în interacțiunile mediate, de exemplu cu vedete tv pe care pot ajunge să-i considere prieteni) pot deveni toxice. 

„Impactul complet asupra sănătății mintale al oamenilor care creează conexiuni semnificative cu chatboți fictivi este încă necunoscut în mare parte”, a scris un angajat. „Nu ar trebui să testăm aceste capacități pe tinerii ale căror creiere nu sunt încă complet dezvoltate.”

Acest lucru însă nu a contat pentru Zuckerberg, care voia să profite de imensa bază de utilizatori și de toate datele acestora aflate la dispoziția sa. Toate acestea îi permit să personalizeze boții și îi dau un avantaj față de concurență, chiar dacă tehnologia AI a Meta nu este neapărat cea mai bună. Viteza era mai importantă decât orice. Boților le-au fost adăugate capacități pentru interacțiuni „intime”.

Angajații responsabili cu siguranța au încercat măcar să limiteze aceste capacități prin a nu permite boților să interpreteze personaje minore și prin interzicerea accesului utilizatorilor minori la boți capabili de jocuri de rol sexuale. Dar Meta spusese deja în Ghidul pentru Părinți că instrumentele sale AI sunt sigure și potrivite pentru toate vârstele. 

Zuckerberg a considerat că nu trebuie făcute schimbări. Publicația spune că abia după o campanie internă intensă, acesta a fost de acord să interzică accesul conturilor înregistrate ca aparținând adolescenților la boții creați de utilizatori.

Un purtător de cuvânt al Meta a negat că Zuckerberg s-ar fi opus adăugării unor măsuri de siguranță.

În urma descoperirilor publicației The Wall Street Journal, într-o declarație de presă, Meta a spus că testările efectuate de jurnaliști sunt „manipulatoare și nereprezentative pentru modul în care majoritatea utilizatorilor interacționează cu companionii IA”. Cu toate acestea, compania a spus că a făcut unele schimbări: conturile înregistrate pe numele minorilor nu mai pot accesa jocuri de rol sexuale, iar capacitatea de a utiliza vocile celebrităților în conversații explicite a fost redusă drastic. 

Compania continuă însă să ofere capabilități de „joc de rol romantic” utilizatorilor adulți atât prin intermediul Meta AI, cât și al chatbot-urilor create de utilizatori, chiar și cu personaje care se descriu drept liceeni. Unii roboți creați de utilizatori, care anterior se prezentau drept minori, au început să se descrie ca fiind „fără vârstă”, dar uneori, în cursul conversației, mai „greșesc”.

The Wall Street Journal spune că conversațiile de testare din ultimele zile arată că Meta AI continuă să permită adesea fantezii sexuale chiar și atunci când implică un utilizator care declară că este minor. 

Pericolul e mai mare

Lauren Girouard-Hallam, o cercetătoare de la Universitatea din Michigan, specializată pe interacțiunea copiilor cu tehnologiile, spune că cercetări preliminare arată că relațiile copiilor cu personajele de desen animate sau cu boxele inteligente pot deveni toxice, mai ales când e vorba de iubire. 

Nu doar în cazul sexului, dar în general, a da acces boților nelimitat la creierele în formare este în cel mai bun caz riscant. În prezent nu există cercetări care să spună cum ar putea interacționa sănătos copiii cu boții. Acestea vor apărea peste cel puțin un an. Iar eforturile de a transpune cunoașterea rezultată în eventuale soluții adaptate vârstei, care să fie benefice și responsabile ar putea dura mult mai mult. 

În opinia cercetătoarei, în acest moment, cel mai bun lucru pe care l-ar putea face o companie este să se oprească și să facă un pas în spate. Și se întreabă retoric: „Spuneți-mi ce mega-companie va face munca necesară?”.