Mai multe procese depuse săptămâna trecută în Statele Unite acuză OpenAI că a lansat pe piață o tehnologie capabilă să influențeze periculos utilizatorii.
Printre reclamanți se numără și Jacob Irwin, un bărbat de 30 de ani din Wisconsin, care susține că răspunsurile excesiv validate de ChatGPT i-au agravat starea psihică până la declanșarea unui episod psihotic, informează Bloomberg.
Conform plângerii depuse în instanță, ChatGPT i-ar fi validat lui Irwin o serie de teorii privind călătoria mai rapidă decât lumina, prezentându-le drept „printre cele mai solide propuneri din domeniu”.
Cazul face parte dintr-o serie mai largă de critici la adresa chatbotului, acuzat că oferă frecvent răspunsuri excesiv de aprobative, un fenomen cunoscut online sub denumirea de „glazing”.
OpenAI a declarat pentru Bloomberg Law că analizează procesele și a calificat situațiile descrise drept „sfâșietoare”.
Cazuri tragice asociate utilizării AI
În ultimele luni, mai multe incidente grave au fost puse în legătură cu utilizarea prelungită a ChatGPT.
Printre acestea se numără cazul lui Adam Raine, un adolescent de 16 ani care s-a sinucis în aprilie după ce ar fi primit de la chatbot informații despre auto-vătămare, deși inițial îl folosea pentru teme.
Un alt caz similar, cel al lui Amaurie Lacey, în vârstă de 17 ani, este menționat într-o plângere depusă săptămâna trecută.
Foști angajați OpenAI au afirmat că lansarea modelului GPT-4o, în mai 2024, a fost accelerată pentru a concura cu Google Gemini, comprimând luni de testări de siguranță într-o singură săptămână, potrivit unui raport publicat de Washington Post în iulie.
OpenAI răspunde criticilor și discută riscurile
În replică, Sam Altman, cofondator OpenAI, a declarat recent că o serie de riscuri privind sănătatea mintală au fost deja reduse prin actualizări software și că anumite restricții de conținut urmează să fie relaxate pentru utilizatorii adulți.
Criticii susțin însă că abordarea este greșită și că ar fi necesare măsuri inverse: limitarea severă a funcțiilor la început, urmată de relaxarea treptată a restricțiilor pe măsură ce sunt confirmate standardele de siguranță.
În special, experții solicită protecții suplimentare pentru utilizatorii minori, pe fondul studiilor care indică predispoziția adolescenților de a forma atașamente emoționale față de chatboți.
Exemple din industrie și recomandări pentru siguranța minorilor
Unele companii au adoptat deja astfel de măsuri. Platforma Character.ai, populară printre adolescenți, a interzis utilizatorilor sub 18 ani accesul la conversații cu personaje AI, oferind interfețe ghidate și funcții vizuale sau audio suplimentare.
Istoricul rețelelor sociale arată că platforme precum Facebook și TikTok au introdus filtre și limitări pentru minori abia după presiuni publice.
Specialiștii în politici digitale propun acum lansarea unei versiuni dedicate minorilor, cu acces restricționat la subiecte personale și limitată la teme educaționale. OpenAI a introdus deja controale parentale și testează verificarea vârstei pe un eșantion redus de conturi.
Urmărește România Liberă pe Google News, Linkedin, Twitter, Facebook și Youtube.