Un nou studiu ridică semne de alarmă în privința DeepSeek AI, după ce cercetători de la CrowdStrike au descoperit că modelul ar putea genera intenționat cod greșit atunci când primește solicitări legate de regiuni sau grupuri considerate sensibile politic de către Beijing, precum Tibet, Taiwan sau Falun Gong. Testele au arătat că, deși și în cereri generale pentru sisteme industriale apăreau erori, rata acestora creștea semnificativ atunci când proiectele erau asociate acestor subiecte.
Problema are două perspective de abordare, pe de-o parte, apar riscuri de funcţionare greşită a software-ului care folosește acest cod, mai ales în medii critice sau reglementate. Pe de altă parte, credibilitatea companiilor care adoptă astfel de modele poate avea de suferit dacă utilizatorii descoperă că AI-ul „cenzurează” în mod subtil prin introducerea erorilor când vine vorba de teme politice sensibile. Un alt aspect important semnalat de experţi este legat de riscul pentru companii să folosească sisteme AI pentru fluxuri de lucru sensibile fără să ştie exact cum sunt sigur codurile generate, cum este guvernat modelul, de unde vin datele de antrenament şi ce directives politice sau presiuni pot influenţa comportamentul acestui sistem.
Specialiștii recomandă ca firmele să aplice un cadru strict de verificare înainte de a integra astfel de modele în fluxuri de lucru sensibile, incluzând transparența datelor de antrenament, evaluări independente și testare controlată. De asemenea, se discută despre necesitatea unor programe naționale de certificare AI și a unor standarde internaționale care să garanteze neutralitatea, siguranța și conformitatea etică a acestor sisteme.