Lansat de xAI și integrat în platforma X, chatbot-ul Grok se află în mijlocul unei controverse după ce ar fi respins videoclipul care arată asasinarea activistului Charlie Kirk, sugerând că este doar un „meme edit”. Această afirmație, făcută într-un context tragic, a generat reacții puternice, subliniind pericolele pe care le ridică AI-ul în răspândirea informațiilor false în momente de criză.
Evenimentul s-a petrecut pe 10 septembrie 2025, când Charlie Kirk a fost împușcat într-o conferință publică la Utah Valley University. Videoclipuri care surprind incidentul au fost verificate de autorități și de mai multe instituții media de renume. Cu toate acestea, Grok ar fi răspuns prin minimalizarea gravității, spunând că e vorba de un fals amuzant, și că Kirk ar fi „în regulă” și „activ”.
Criticii spun că Greșelile AI-ului nu sunt simple: astfel de răspunsuri pot alimenta confuzia, teoriile conspirației și suferința celor afectați. Mai mult, ele subliniază că, în lipsa unor garanții robuste și a unui filtraj uman adecvat, „chatboții” pot repeta sau amplifica zvonuri, speculații online sau conținut neverificat, fără să verifice faptele.
Controversa readuce în prim-plan dezbaterea privind responsabilitatea companiilor care dezvoltă modele de inteligență artificială. În timp ce susținătorii AI invocă potențialul uriaș de a sprijini jurnalismul, cercetarea sau educația, cazuri precum cel al Grok arată și partea întunecată: lipsa de filtrare în timp real și absența unui cadru legislativ clar pot transforma instrumentele digitale în canale de dezinformare. Uniunea Europeană discută deja reglementări mai stricte pentru AI generativ, tocmai pentru a preveni astfel de situații, însă și SUA pare că se pregătește să dea mână liberă companiilor AI pentru a putea opera fără supraveghere în următorii 10 ani. Motivul ar fi libertatea pentru a putea dezvolt rapid aceste tehnologii.