Motoarele de căutare AI inventează surse pentru ~60% din interogări, au constatat studiile independente. Chiar și atunci când li se oferă citate directe din știri reale și li se solicită mai multe informații, ei vor oferi deseori informații eronate.
AI-ul inventează lucruri
Motoarele de căutare bazate pe AI sunt ca acel prieten care pretinde că este un expert într-o mulțime de subiecte, continuând cu autoritate chiar și atunci când nu știu cu adevărat despre ce vorbesc. Un nou raport de cercetare de la Columbia Journalism Review (CJR) a constatat că modelele AI precum OpenAI și xAI, atunci când sunt întrebate despre un anumit eveniment de știri, de cele mai multe ori, pur și simplu inventează o poveste sau vor greși detalii semnificative. La o concluzie similară ajunsese recent și un studiu BBC. De altfel, sistemele AI nu doar că aberează, ci au o tendință de a trișa.
Cercetătorii au furnizat diverse fragmente din știri reale și apoi le-au cerut motoarelor AI să identifice informații. Să afle inclusiv titlul articolului, editorul și adresa URL. Perplexity a returnat informații incorecte 37 la sută din timp, în timp ce la coada clasamentului, Grok de la xAI a furnizat detalii false în 97 la sută din timp. Erorile prezentate includ oferirea de link-uri către articole care nu există, AI-ul chiar a generat un URL fals. În general, cercetătorii au descoperit că modelele AI au scuipat informații false pentru 60% din interogările de testare.
Uneori, motoarele de căutare precum Perplexity vor ocoli sistemele paywall ale site-urilor precum National Geographic chiar și atunci când acele site-uri au folosit text care nu poate fi accesat de motoarele de căutare. Creatorii Perplexity încearcă să motiveze acest lucru prin „utilizarea fair” a conținutului, dar refuză totuși să pună capăt acestei practici.
Roboții AI sunt construiți astfel încât să returneze răspunsuri chiar și atunci când nu știu exact despre ce vorbesc. Căutarea este activată printr-o tehnică numită retrieval-augmented generation, care, după cum sugerează și numele, caută pe web informații în timp real pentru a produce un răspuns, mai degrabă decât să se bazeze pe un set de date fix pe care l-a furnizat producătorul motorului AI. Acest lucru ar putea înrăutăți problema inexactității, deoarece țări precum Rusia alimentează motoarele de căutare cu propagandă.
Claude de la Anthropic a fost prins inserând date sub formă de citate atunci când i s-a cerut să efectueze lucrări de cercetare, de exemplu.
CJR notează că unul din patru americani utilizează acum modele AI pentru căutare. Și chiar înainte de lansarea instrumentelor de inteligență artificială generativă, mai mult de jumătate din căutările Google au fost „zero-clic”, ceea ce înseamnă că utilizatorul a primit informațiile de care avea nevoie fără a face clic pe un site web. Alte site-uri precum Wikipedia au dovedit de-a lungul anilor că oamenii vor accepta conținut care poate fi mai puțin corect dacă este gratuit și ușor accesibil.