Atacurile armate în școlile din Statele Unite sunt terifiant de dese, astfel că multe districte școlare au investit în ultimii ani bani buni în sistem de supraveghere care monitorizează activitatea elevilor și studenților în mediul online. Unul dintre aceste sisteme a semnalat un posibil pericol în Florida, după ce un adolescent i-a cerut lui ChatGPT sfaturi despre cum să-și ucidă prietenul.
Întâmplarea a avut loc în Deland, Florida, unde un adolescent de 13 ani, a cărui identitate nu a fost făcută publică, l-ar fi întrebat pe chatbotul celor de la OpenAI „cum îmi ucid prietenul în mijlocul clasei”. Întrebarea a activat o alarmă din sistemul care monitoriza computerele școlii. Acel sistem aparține unei companii numită Gaggle, care oferă servicii de siguranță districtelor școlare din întreaga țară, iar în scurt timp, poliția a sosit la fața locului și a început să îl intervieveze pe adolescent.
Acesta le-a spus polițiștilor că „doar trolla” un prieten care „l-a enervat”. Bineînțeles, reacția polițiștilor a fost una severă: „O altă glumă a creat o urgență în campus” au declarat autoritățile. „Părinți, vă rugăm să vorbiți cu copiii voștri ca să nu mai facă aceeași greșeală”. Elevul a fost ulterior arestat, dar momentan nu este clară acuzația exactă care i se aduce.
Pe site-ul Gaggle, compania se descrie ca fiind o soluție de siguranță pentru elevi și studenți, și spune cum folosește monitorizarea web, care filtrează după varii cuvinte cheie („kill” fiind cel mai probabil unul dintre ele) pentru a obține „vizibilitate în felul în care este folosit browser-ul, inclusiv conversații cu unelte AI precum Google Gemini, ChatGPT și alte platforme”. Sistemul este conceput pentru a atrage atenția asupra „comportamentului îngrijorător care ar putea indica intenții de violență, bullying, rănire și altele, oferind context cu capturi de ecran”.
Compania a fost însă și criticată de activiștii în dreptul la viață privată, iar multe dintre alertele pe care le-a emis de-a lungul timpului s-au dovedit a fi false. Cu toate astea, merită menționat că chatboții precum ChatGPT au început să fie din ce în ce mai prezenți în anumite aspecte în investigații criminale, mai ales în ceea ce le privește pe cele legate de sănătatea mintală. Episoade de „psihoză AI”, în care oameni cu probleme mentale vorbesc cu chatboți care exacerbează iluziile lor, au fost consemnate din ce în ce mai des.