Microsoft admite că noile sale funcționalități bazate pe inteligență artificială, destinate să transforme Windows 11, vin la pachet cu riscuri de securitate semnificative. Documentele de suport actualizate recent de companie avertizează utilizatorii că agenții AI pot suferi de „halucinații”, pot acționa imprevizibil și, mai grav, pot cădea victime ale unor atacuri cibernetice complexe. Cu toate acestea, gigantul tehnologic își continuă planurile de a integra aceste funcții „agentice” în sistemul de operare, considerându-le viitorul platformei.
Avertismentul Microsoft este cât se poate de direct. Compania notează că modelele AI au limitări funcționale și pot introduce noi vectori de amenințare, cum ar fi exfiltrarea datelor sau instalarea de malware. Această recunoaștere vine într-un moment în care utilizatorii sunt deja sceptici, după controversa legată de funcția „Recall”, care a ridicat mari semne de întrebare privind confidențialitatea.
Unul dintre cele mai alarmante riscuri detaliate de Microsoft este vulnerabilitatea la Cross Prompt Injection (XPIA). Acest tip de atac presupune existența unui conținut malițios ascuns în documente, elemente de interfață sau aplicații, pe care agentul AI îl procesează. Deoarece agentul este proiectat să „vadă” și să acționeze asupra a ceea ce se află pe ecran, instrucțiunile ascunse pot suprascrie comenzile utilizatorului.
„Agentic AI are capabilități puternice în prezent, de exemplu poate finaliza multe sarcini complexe ca răspuns la solicitările utilizatorilor, schimbând modul în care aceștia interacționează cu PC-urile. Pe măsură ce aceste funcții sunt introduse, modelele AI încă au limitări de funcționare în ceea ce privește comportamentul și uneori pot halucina, generând rezultate neașteptate. În plus, aplicațiile agentic AI introduc riscuri de securitate noi, precum cross-prompt injection (XPIA), unde conținutul malițios integrat în elemente de interfață sau documente poate înlocui instrucțiunile agentului, ducând la acțiuni nedorite precum exfiltrarea de date sau instalarea de malware. Recomandăm parcurgerea acestor informații pentru a înțelege implicațiile de securitate ale activării unui agent pe computerul tău.”, scrie Microsoft pe site-ul oficial.
Practic, un document aparent inofensiv ar putea conține instrucțiuni invizibile care să forțeze asistentul digital să copieze fișiere sensibile, să le trimită către un server extern sau să descarce software periculos, totul sub aparența unei funcționări normale. Microsoft subliniază că utilizatorii trebuie să verifice informațiile și să înțeleagă implicațiile de securitate înainte de a activa acești agenți.
Pentru a mitiga aceste riscuri, Microsoft a dezvoltat o nouă arhitectură de sistem denumită „Agent Workspace”. Aceasta funcționează ca un mediu paralel în Windows, având propriul arbore de procese și limite de permisiuni. Fiecare agent AI rulează sub un cont standard separat, izolat de sesiunea principală a utilizatorului.
Deși agenții au acces de citire și scriere în folderele cunoscute ale utilizatorului, precum Documente sau Imagini, aceștia sunt restricționați de la accesarea directoarelor de sistem critice sau a stocării de credențiale. Interacțiunea dintre agent și restul sistemului este guvernată de Model Context Protocol (MCP), care controlează strict ce instrumente și funcții pot fi apelate. Această structură este menită să prevină accesul direct și necontrolat, oferind un punct central de aplicare a politicilor de securitate.
Decizia de a merge înainte cu aceste funcții, în ciuda riscurilor evidente, pare a fi motivată de presiunea competițională. Cu Apple deja oferind anumite funcții de inteligență artificială în macOS și zvonurile despre un potențial „Aluminium OS” de la Google, Microsoft simte nevoia să transforme Windows într-o „pânză pentru AI” pentru a rămâne relevant.
Compania pariază pe faptul că utilizatorii vor accepta eventual acești asistenți autonomi care pot naviga prin aplicații, edita fișiere și executa sarcini complexe, în ciuda neîncrederii actuale. Totuși, succesul acestui pariu depinde de capacitatea Microsoft de a demonstra că izolarea prin Agent Workspace este suficient de robustă pentru a preveni transformarea PC-ului într-un cal troian automatizat.