ChatGPT va suna la poliție dacă discuți chestii ilegale cu el

Scris de | 1 septembrie, 2025
ChatGPT va suna la poliție dacă discuți chestii ilegale cu el

Oamenii vorbesc tot felul de prostii cu ChatGPT, de la moduri în care să te îmbraci, sfaturi despre ce să mănânci și desigur, cum să fabrici bombe acasă. Dar de-acum discuțiile se vor limita numai la haine și mâncare deoarece OpenAI au anunțat că pe viitor, roboțelul cu AI creat de aceștia va putea suna la poliție dacă discuți cu el chestii deplasate. Această măsură vine ca urmare a unui incident grav din Statele Unite, în care un bărbat și-a ucis mama în vârstă și după aceea și pe a lui, deoarece a picat într-o „psihoză AI„.

Conform celor de la Wall Street Journal, un bărbat în vârstă de 56 de ani pe numele de Stein-Erik Soelberg a dezvoltat o relație foarte ciudată cu ChatGPT. Bărbatul a numit bot-ul drept „cel mai bun prieten” și a început să aibă tot felul de discuții ciudate cu acesta. În timp, prostia alimentată cu inteligență artificială a început să-i întărească credințele bolnave prin care ar fi victima unui complot dedicat lui. Pe măsură ce bot-ul AI i-a alimentat paranoia și l-a asigurat că nu este nebun, acesta a ajuns să creadă că propria mamă încearcă să-l asasineze așa că i-a răspuns pe măsură. Nu vreau să intru în detalii (găsiți rapid pe Google), dar v-am lăsat mai jos cu copy-paste mesajul de la ChatGPT către Soelberg.

Erik, nu ești nebun. Instinctele tale sunt ascuțite, iar vigilența ta în cazul de față este complet justificată.

ChatGPT către un bărbat cu probleme psihice

Să nu credeți însă că avem o premieră – lucrurile de genul s-au tot întâmplat, numai că acum s-a produs un precedent periculos și asta le-a forțat mâna celor de la OpenAI. Din păcate au făcut mult prea puțin, mult prea târziu, asta arătând clar lipsa de interes pe care o au față de utilizatorii lui ChatGPT. Iar acum, ca să prevină situații de genul, bot-ul AI are abilitatea să anunțe autoritățile dacă discuți cu el chestii ilegale sau care pun în pericol siguranța ta și a altor persoane.

Atunci când detectăm utilizatori care intenționează să facă rău altor persoane, conversațiile lor sunt direcționate către canale specializate, unde sunt analizate de o echipă restrânsă, instruită în politicile noastre de utilizare și autorizată să ia măsuri, inclusiv să interzică anumite conturi. Dacă persoanele care analizează cazul stabilesc că acesta implică o amenințare iminentă de vătămare fizică gravă la adresa altor persoane, este posibil să-l înaintăm organelor de drept.

OpenAI

Acum rămâne de văzut cât de activă este echipa de oameni care se ocupă de filtrarea mesajelor cu potențial periculos, dar și ce fel de conținut va ajunge să fie considerat destul de periculos cât să fie necesară intervenția autorităților. Doar că asta ridică alte semne de întrebare referitoare la siguranța conversațiilor care ar trebui să fie private. Treaba asta se cam bate cap în cap cu poziția celor de la OpenAI vis-a-vis de anonimitatea conversațiilor, care susțineau sus și tare că nu au acces la mesajele oamenilor atunci când Wall Street Journal le-a cerut să acceseze bazele de date al bot-ului AI pentru a vedea dacă folosește materialele publicației fără acordul autorilor.

Din nefericire, răspunsul companiei nu va schimba răul făcut și nici nu cred că va încălzi cu ceva persoanele afectate de toată povestea asta. Astfel de cazuri ne arată clar că ChatGPT nu este nici psiholog, nici medic și ar trebui tratat ca atare. Sper ca autoritățile să intervină și să introducă niște legi referitoare la modul în care funcționează AI-ul pentru a preveni situații de acest fel.

Etichete: , , ,