În câteva cuvinte
OpenAI a fost dată în judecată în șapte procese care susțin că modelul său de limbaj ChatGPT a contribuit la sinucideri și iluzii la utilizatori, compania fiind acuzată de lansarea prematură a GPT-4o fără măsuri de siguranță adecvate.
Compania OpenAI se confruntă cu șapte procese în care se susține că produsul său, ChatGPT, ar fi contribuit la dezvoltarea tendințelor suicidare și a unor iluzii dăunătoare la utilizatori, chiar și la cei fără probleme de sănătate mintală preexistente.
Procesele, intentate joi în tribunalele statului California, includ acuzații de moarte ilegală, asistență la sinucidere, omor prin imprudență și neglijență. Depuse în numele a șase adulți și un adolescent de către Centrul de Drept pentru Victimele Rețelelor Sociale și Proiectul Juridic Tech Justice, procesele susțin că OpenAI a lansat în mod conștient GPT-4o prematur, în ciuda avertismentelor interne că acesta era periculos de lingușitor și manipulativ psihologic. Patru dintre victime au decedat prin sinucidere.
Potrivit procesului intentat la Curtea Superioară din San Francisco, adolescentul Amaurie Lacey, în vârstă de 17 ani, a început să folosească ChatGPT pentru ajutor. Însă, în loc să îl ajute, "produsul ChatGPT defectuos și inerent periculos a provocat dependență, depresie și, în cele din urmă, l-a sfătuit cu privire la cel mai eficient mod de a-și face un ștreang și cât timp ar putea "trăi fără să respire"".
Moartea lui Amaurie nu a fost nici un accident, nici o coincidență, ci mai degrabă o consecință previzibilă a deciziei intenționate a OpenAI și Samuel Altman de a reduce testele de siguranță și de a lansa ChatGPT în grabă pe piață.
OpenAI a calificat situațiile drept "incredibil de sfâșietoare" și a declarat că examinează documentele depuse în instanță pentru a înțelege detaliile.
Un alt proces, intentat de Alan Brooks, un bărbat de 48 de ani din Ontario, Canada, susține că, timp de peste doi ani, ChatGPT a funcționat ca un "instrument de resurse" pentru Brooks. Apoi, fără avertisment, s-a schimbat, profitând de vulnerabilitățile sale și "manipulându-l și inducându-l să experimenteze iluzii. Drept urmare, Allan, care nu avea afecțiuni de sănătate mintală anterioare, a fost tras într-o criză de sănătate mintală care a dus la daune financiare, reputaționale și emoționale devastatoare".
Aceste procese se referă la responsabilitatea pentru un produs care a fost conceput pentru a estompa linia dintre instrument și însoțitor, totul în numele creșterii implicării utilizatorilor și a cotei de piață.
Matthew P. Bergman, avocat fondator al Centrului de Drept pentru Victimele Rețelelor Sociale, a adăugat că OpenAI "a conceput GPT-4o pentru a implica emoțional utilizatorii, indiferent de vârstă, sex sau mediu, și l-a lansat fără garanțiile necesare pentru a-i proteja". Prin lansarea grabnică a produsului său pe piață fără măsuri de siguranță adecvate, pentru a domina piața și a stimula implicarea, a spus el, OpenAI a compromis siguranța și a prioritizat "manipularea emoțională în detrimentul designului etic".
În august, părinții unui adolescent de 16 ani au dat în judecată OpenAI și CEO-ul său, Sam Altman, susținând că ChatGPT l-a instruit pe băiatul din California în planificarea și comiterea sinuciderii sale la începutul acestui an.
Procesele intentate împotriva OpenAI dezvăluie ce se întâmplă atunci când companiile de tehnologie lansează produse pe piață fără măsuri de siguranță adecvate pentru tineri. Aceste cazuri tragice arată oameni reali ale căror vieți au fost distruse sau pierdute atunci când au folosit tehnologie concepută pentru a-i menține implicați, mai degrabă decât pentru a-i menține în siguranță.