OpenAI a publicat recent un raport în care oferă o imagine mai clară asupra modului în care monitorizează ChatGPT pentru a preveni utilizările abuzive. Documentul face parte din seria de rapoarte de transparență începută în februarie 2024 și arată că, până acum, compania a reușit să blocheze peste numeroase rețele care au încercat să folosească modelele AI în scopuri ilegale sau dăunătoare.
Astfel, în ultimul an și jumătate, OpenAI a reușit să identifice și să blocheze peste 40 de rețele care încercau să exploateze ChatGPT și alte modele AI în scopuri ilegale. Printre acestea se numără grupuri de hackeri, escroci online și chiar entități asociate cu regimuri autoritare, care au încercat să folosească AI pentru propagandă, manipulare sau supraveghere. OpenAI spune că majoritatea actorilor rău-intenționați nu inventează metode complet noi, ci adaptează tactici deja cunoscute, precum phishingul, campaniile de spam sau atacurile cibernetice, folosind AI pentru a le face mai rapide și mai greu de detectat. În momentul în care sunt descoperite astfel de activități, OpenAI blochează conturile implicate și, atunci când este necesar, colaborează cu parteneri externi pentru a împărtăși informații despre amenințări. Monitorizarea se face printr-o combinație de sisteme automate și revizuiri umane, cu scopul de a identifica tipare suspecte de utilizare, dar compania subliniază că încearcă să mențină un echilibru între siguranță și confidențialitatea utilizatorilor.
În raportul prezentat, OpenAI spune că printre rețelele indentificate se regăsește și o grupare de crimă organizată din Cambodgia care folosea AI pentru a-și automatiza procesele, o operațiune de influență rusă care folosea ChatGPT pentru generarea de prompturi video și conturi legate de guvernul chinez care cereau proiecte de supraveghere în social media. În plus, în ceea ce privește operațiunile de influență, documentul descrie campanii precum „Stop News”, atribuită unor actori statali precum Rusia, dar și o operațiune chinezească care a vizat țări precum ilipine, Vietnam, Hong Kong și SUA. Aceste campanii au folosit ChatGPT pentru a genera texte, scenarii video și conținut de social media, însă impactul lor a fost limitat, cu audiențe reduse și interacțiuni minime.
OpenAI subliniază că modelele sale nu au oferit capabilități ofensive noi atacatorilor, ci au fost folosite mai degrabă pentru eficientizarea unor tactici deja cunoscute. Totodată, compania insistă că va continua să colaboreze cu parteneri din industrie și cu autorități pentru a împiedica folosirea AI în scopuri dăunătoare și pentru a construi o inteligență artificială „democratică”, aliniată la principii de siguranță și transparență.
OpenAI recunoaște că nu toate abuzurile pot fi detectate și oprie, întrucât unii infractori pot opta către alte modele AI sau pot folosit modelel de inteligență artificială proprii, astfel că aceștia pot opera ,,sub radar”.
Raportul complet poate fi consultat aici.