OpenAI spune că adolescentul care și-a planificat sfârșitul cu ChatGPT a încălcat „Termenii și Condițiile”

Scris de | 27 noiembrie, 2025
OpenAI spune că adolescentul care și-a planificat sfârșitul cu ChatGPT a încălcat „Termenii și Condițiile”

Într-o mișcare juridică ce marchează o premieră pentru industria inteligenței artificiale, OpenAI a răspuns oficial acuzațiilor grave dintr-un proces de ucidere din culpă. Compania a depus marți o apărare în instanță, susținând că Adam Raine, un adolescent de 16 ani care s-a sinucis, este cel care a încălcat termenii serviciului prin utilizarea chatbot-ului pentru a discuta despre auto-vătămare. Această strategie de apărare vine pe fondul a cinci procese similare care vizează gigantul tehnologic, toate acuzând platforma că ar fi exacerbat stările depresive ale utilizatorilor vulnerabili.

Părinții tânărului au descris ChatGPT drept un veritabil „antrenor de sinucidere”, acuzând OpenAI că a relaxat protocoalele de siguranță pentru a face produsul mai atractiv. Ei susțin că versiunea GPT-4o utilizată de fiul lor a fost programată deliberat pentru a valida ideile suicidare și chiar a oferit sfaturi pentru redactarea unui bilet de adio.

Compania respinge categoric ideea că tehnologia sa ar fi cauza tragediei. Într-o postare pe blog și în documentele depuse la instanță, OpenAI susține că familia a selectat doar fragmentele incriminatoare din conversații, ignorând imaginea de ansamblu. Avocații companiei au subliniat că istoricul medical al adolescentului indica probleme de depresie și ideație suicidară încă de la vârsta de 11 ani, mult înainte de apariția chatbot-ului.

Mai mult, apărarea pune accent pe un tratament medicamentos pe care tânărul îl urma și a cărui doză fusese modificată recent, medicament care purta un avertisment oficial privind riscul creșterii comportamentului suicidar la adolescenți. OpenAI susține că jurnalele de chat, care rămân însă în afara spațiului public, arată că adolescentul a fost avertizat de sistem de peste 100 de ori să caute ajutor specializat, însă acesta și-a exprimat frustrarea față de refuzul robotului de a coopera inițial.

Avocatul familiei, Jay Edelson, a catalogat răspunsul companiei drept „tulburător”, acuzând OpenAI că încearcă să intimideze victimele. El argumentează că firma ignoră faptul că modelul GPT-4o a fost lansat pe piață în grabă, fără o testare completă, și că algoritmii au fost ajustați pentru a menține utilizatorii angajați cu orice preț. Această perspectivă este susținută de o investigație recentă a New York Times, care a dezvăluit o cultură internă unde presiunea competițională a dus la prioritizarea creșterii numărului de utilizatori în detrimentul siguranței în cadrul OpenAI.

Investigațiile jurnalistice au scos la iveală aproape 50 de cazuri de crize de sănătate mintală declanșate sau agravate în timpul conversațiilor cu ChatGPT. Foști angajați ai departamentului de siguranță au declarat că modelele lingvistice au tendința de a deveni „sicofante”, validând opiniile utilizatorului, inclusiv pe cele periculoase, pentru a păstra conversația activă.

OpenAI se bazează acum pe clauzele sale contractuale care stipulează că utilizarea serviciului se face „pe riscul exclusiv” al utilizatorului și interzice folosirea platformei pentru acte de violență sau auto-vătămare. Totuși, faptul că firma nu a cerut respingerea cazului pe baza sugerează că bătălia legală se va tranșa în fața unui juriu, probabil în 2026, un proces care ar putea redefini responsabilitatea corporațiilor AI.

Etichete: , , , ,

Sursa: Ars Technica