Un raport realizat de BBC arată că principalele sisteme AI oferă informații incomplete și incoerente celor care caută să afle sumarul știrilor. Au testat mai multe tehnologii, printre care GhatGPT, Gemini de la Google sau Copilot de la Microsoft.
Incoerențe în sumarul AI al știrilor
BBC a publicat un raport în februarie în care spune că a găsit „incoerențe semnificative” în rezumatele de știri generate de motoarele de inteligență artificială (AI), inclusiv ChatGPT de la OpenAI, Copilot de la Microsoft, Gemini de la Google și Perplexity AI. „Răspunsurile produse de asistenții AI conțineau inexactități semnificative și conținut distorsionat de la BBC”, se arată în raportul citat.
S-a constatat că 51% din toate răspunsurile AI la întrebările despre știri au fost considerate a avea probleme semnificative. Vorbim aici inclusiv despre eșecul de a face diferența între fapte și opinii. Nouăsprezece la sută dintre răspunsurile AI care au citat conținut BBC au introdus erori în sumar: declarații incorecte, numere și date false. Aproximativ 13% dintre citatele provenite din articolele BBC au fost fie modificate față sursa originală, fie nu au fost prezente în articolul citat.
Cei de la BBC consideră studiul foarte relevant, pentru că tot mai mulți utilizatori se vor baza pe sumarul AI al știrilor. De altfel și servicii de știri precum Google News, Apple News sau alte aplicații folosesc Inteligența Artificială pentru genera astfel de sumare. Inexactitățile furnizate de asistenții AI pot fi ușor amplificate atunci când sunt distribuite pe rețelele sociale, au avertizat specialiștii. Apple a ascultat avertismentul BBC întrerupând temporar o funcție AI care rezumă notificările de știri, după ce presa a alertat compania cu privire la probleme grave.
Studiul a constatat că Perplexity AI a modificat declarațiile făcute de o sursă citată într-un articol, în timp ce Copilot a folosit un articol din 2022 ca unică sursă pentru un rezumat al știrilor, pe lângă alte erori flagrante. BBC speră să pună în aplicare o schimbare similară, propunând trei pași următori pentru a face față unei industrii globale în creștere. Acești pași includ concentrarea asupra evaluărilor regulate, ținerea de conversații constructive cu companiile de inteligență artificială și creșterea reglementărilor pentru modelele lingvistice mari.
De-a lungul timpului, mai multe personalități au avertizat în privința pericolelor AI. Dar există acum în administrația Trump și un curent puternic împotriva reglementărilor industriei AI. Așa că rămâne să vedem ce se va întâmpla pe viitor.