Un studiu dezvăluie că vibe coding-ul creează multe breșe de securitate

Scris de | 11 mai, 2026
Un studiu dezvăluie că vibe coding-ul creează multe breșe de securitate

Inteligența artificială a explodat în popularitate în ultimii ani, iar de la întrebări despre rețete de mâncare și instrucțiuni de reparat chestii prin casă, am ajuns să creăm aplicații fără să știm să scriem cod. Cu doar câteva prompt-uri, modelele de AI reușesc să construiască aplicații de la zero în câteva minute. Acest procedeu se numește ”vibe coding”. Și pe cât de bine sună, pe atât de periculos este. Conform RedAccess, o firmă specializată în cybersecurity, aceste aplicații scrise de AI vin cu tot felul de breșe de securitate periculoase.

Echipa de cercetători a analizat aplicații scrise cu ajutorul unor unelte AI populare, cum ar fi Lovable, Replit sau Netlify, iar ce-au descoperit a fost cu adevărat îngrijorător. Peste 5.000 de aplicații ”vibe coded” nu aveau nici un fel de măsură de securitate implementată. Codul acestora este indexat de Google, astfel că poate fi exploatat foarte simplu. Iar informațiile pe care le-au descoperit cei de la RedAccess includ strategii de marketing, conversații cu pacienți din spitale, rapoarte de vânzări și multe alte chestii care nu ar trebui să fie publice.

La auzirea acestor vești, companii precum Replit și Wix au declarat că toate aplicațiile care pot fi găsite în domeniul public sunt așa la alegerea utilizatorilor. Și într-adevăr, au dreptate întrucât un URL public nu are cum să fie considerat drept o breșă de securitate. Iar asta scoate în evidență o problemă ceva mai adâncă, care culmea, nici nu prea are legătură cu AI-ul în sine, ci mai de grabă cu utilizatorii săi.

Experții de la RedAccess susțin că uneltele AI pentru scris aplicații ar trebui să pună accent pe securitate ca măsură prestabilită. Motivația ar fi că le permite oamenilor fără experiență în arhitecturi web să publice proiecte importante, însă aceștia nu cunosc pe deplin riscurile. Cu toate astea, tentația este mult prea mare deoarece modelele AI rezolvă o treabă care ar dura zile întregi sau chiar săptămâni, în doar câteva minute. Deci problema este undeva pe la mijloc. AI-ul în sine nu este rău, dar fără un utilizator experimentat care să-l utilizeze și să lucreze alături de el, problemele de securitate vor rămâne cât se poate de reale.

Etichete: , ,