Într-o epocă în care adolescenții apelează la TikTok pentru sfaturi de viață și la Instagram pentru validare, un nou confident digital a intrat în viața lor: inteligența artificială. Potrivit noilor cercetări, părinții habar nu au ce spun copiii lor chatbot-urilor și care sunt relațiile emoționale digitale pe care le creează.

Cercetătorii de la Universitatea din Illinois Urbana-Champaign au descoperit o neconcordanță semnificativă între modul în care părinții cred că copiii lor de vârstă adolescentă folosesc inteligența artificială și realitatea complexă. Condus de profesorul de științe ale informației Yang Wang, co-director al Social Computing Systems Lab, și doctorandul Yaman Yu, studiul, disponibil în pre-print, reprezintă una dintre primele cercetări cuprinzătoare care examinează modul în care adolescenții interacționează cu inteligența artificială generativă (GAI) și riscurile asociate și va fi prezentat în mai 2025 la IEEE Symposium on Security and Privacy, una din cele mai prestigioase conferințe privind securitatea computerelor.

Descoperirile studiului prezintă o imagine a adolescenților care folosesc inteligența artificială în moduri pe care părinții lor nu și le-au imaginat niciodată. În timp ce părinții văd în mod obișnuit AI ca pe un instrument academic care funcționează ca un motor de căutare, adolescenții apelează la chatbots AI pentru sprijin emoțional, sfaturi în relație și interacțiune socială. Acești însoțitori AI sunt din ce în ce mai integrați în platforme populare precum Snapchat și Instagram, unde adolescenții îi încorporează în chat-urile de grup și uneori chiar dezvoltă atașamente romantice față de ei.

„Este un subiect fierbinte, cu o mulțime de adolescenți care vorbesc despre Character AI și despre modul în care îl folosesc”, notează Yu, referindu-se la o platformă în care utilizatorii pot crea chatbot-uri sub formă de personaje și și interacționa cu ele.

Echipa de cercetare a analizat discuțiile pe rețelele sociale și a realizat interviuri aprofundate cu 20 de participanți – șapte adolescenți și 13 părinți. Metodologia lor a inclus analiza a 712 postări și 8.533 de comentarii pe Reddit legate de utilizarea GAI de către adolescenți. Dintre acestea doar 181 de postări s-au dovedit relevante după filtrare.

Studiul a relevat concepții greșite semnificative despre GAI atât în rândul părinților, cât și al copiilor. Părinții nu erau în mare măsură conștienți de utilizarea de către copii a instrumentelor avansate precum Midjourney și DALL-E pentru generarea de imagini, sau Character AI pentru companie. Mai îngrijorătoare a fost înțelegerea limitată de către părinți a datelor pe care copiii lor le-ar putea împărtăși cu aceste sisteme AI.

În timp ce părinții erau îngrijorați de colectarea datelor demografice de bază sau diverse informații personale or privindf familia, ei „nu au apreciat pe deplin amploarea datelor sensibile pe care copiii lor le-ar putea împărtăși cu GAI... inclusiv detalii despre traume personale, dosare medicale și aspecte private ale vieții lor sociale și sexuale”, au scris cercetătorii. Părinții au fost, de asemenea, îngrijorați de faptul că copiii ar putea răspândi din neatenție dezinformare și s-au îngrijorat că dependența excesivă de inteligența artificială îi va determina pe copiii lor să evite gândirea critică.

Studiul a constatat că adolescenții au propriul set de preocupări, care include dependența de chatbot-uri AI, potențialul de hărțuire prin conținutul generat de AI și utilizarea neautorizată a informațiilor lor personale. Ei și-au exprimat, de asemenea, preocupări mai generale legate de rolul AI în societate, cum ar fi înlocuirea muncii umane de către AI și încălcarea proprietății intelectuale.

Ceea ce face ca această situație să fie deosebit de problematică este inadecvarea măsurilor de siguranță actuale. Acestea sunt foarte sumare, limitându-se în general la restricționarea conținutului sexual explicit, și nu există facilități pentru controlul parental. Spre deosebire de platformele tradiționale de socializare, sistemele GAI generează conținut unic în timp real, ceea ce face mai dificilă identificarea și prevenirea conținutului inadecvat. Cercetătorii subliniază că riscurile sunt complexe, iar strategiile de atenuare trebuie să meargă mai departe de simpla blocare a conținutului inadecvat și nu pot fi doar pur tehnice.

„Tehnologiile AI evoluează foarte repede, la fel și modul în care oamenii le folosesc”, spune profesorul Wang. „Dar există câteva lucruri pe care le putem învăța din domeniile anterioare, cum ar fi dependența de rețelele sociale și jocurile online și comportamentul asociat neadecvat asociat.”

Privind în perspectivă, echipa de cercetare dezvoltă soluții practice. Ei creează o taxonomie a categoriilor de risc pentru a ajuta la identificarea semnelor de avertizare timpurie ale comportamentului riscant, cum ar fi timpul excesiv petrecut pe platformele GAI sau anumite tipare de conversație. De asemenea, colaborează cu profesorul de psihologie din Illinois Karen Rudolph, directorul Family Studies Lab, pentru a stabili intervenții adecvate vârstei.

„Acesta este un subiect foarte interdisciplinar și încercăm să-l rezolvăm în moduri interdisciplinare, implicând educație, psihologie și cunoștințele noastre despre siguranță și managementul riscurilor”, explică Yu. „Trebuie să fie o soluție tehnică și o soluție de interacțiune socială.”