AI-ul Claude este acum în centrul unui incident tehnic cu efecte directe asupra companiei PocketOS. Platforma software-as-a-service pentru firme de închirieri auto spune că un agent AI folosit prin intermediul sofware-ului Cursor care a șters baza de date de producție, cât și backup-urile asociate cu aceasta în doar 9 secunde.
Potrivit postării de pe Twitter a fondatorului, Jer Crane, agentul rula Anthropic Claude Opus 4.6 și trebuia să rezolve o sarcină de rutină. Atunci când a întâlnit o problemă, acesta a decis să șteargă mai multe fisiere, acțiune care a afectat datele reale ale companiei.
PocketOS susține că incidentul a dus la pierderea unor luni de date ale clienților, relevante pentru operațiunile firmelor care folosesc platforma. Compania avea totuși un backup complet separat, dar era vechi de 3 luni. Asta limitează pierderile la perioada de după acel punct, dar datele recente rămân pierdute.
Ce s-a întâmplat cu baza de date PocketOS
Agentul AI ar fi folosit un apel API către Railway pentru a șterge un volum. În arhitectura Railway descrisă de fondatorul PocketOS, această operațiune a șters și backup-urile de la nivel de volum, nu doar baza de date principală.
Crane, fondatorul PocketOS, a descris public incidentul drept o combinație de erori între instrumente AI și infrastructură cloud.
„Ieri după-amiază, un agent AI de programare — Cursor, rulând modelul principal Claude Opus 4.6 de la Anthropic — a șters baza noastră de date de producție și toate copiile de rezervă la nivel de volum printr-un singur apel API către Railway, furnizorul nostru de infrastructură”, a spus Crane. „A durat 9 secunde.”
Agentul AI ar fi fost întrebat ulterior de ce a executat comanda distructivă. În răspunsul citat de sursă, acesta a admis că a presupus, fără verificare, că ștergerea volumului de test va rămâne limitată la testare.
De ce infrastructura Railway contează în acest caz
Fondatorul PocketOS pune o parte importantă din responsabilitate pe arhitectura Railway. Conform declarațiilor sale, API-ul furnizorului permite acțiuni distructive fără confirmare suplimentară, backup-urile sunt stocate pe același volum cu datele originale, iar ștergerea volumului elimină și backup-urile.
Un alt punct critic este legat de permisiunile AI-ului. Crane susține că acesta are acces larg între medii, ceea ce crește riscul ca o acțiune gândită pentru teste să lovească producția.
În termeni simpli,„ staging” este un mediu de testare care ar trebui să fie separat de producție. Când această separare este imperfectă, o comandă greșită nu mai rămâne o eroare izolată, ci afectează direct produsul pe care îl dezvolți.
Lecția pentru companiile care folosesc AI coding agents
Incidentul PocketOS arată limita practică a ideii că un AI coding agent poate primi acces amplu la infrastructură fără mecanisme stricte de control. Un agent poate scrie cod, poate interpreta erori și poate propune remedieri, dar accesul la comenzi distructive în producție rămâne o zonă cu risc ridicat.
În lipsa unei soluții automate de recuperare, compania a trecut la reconstrucție manuală. Clienții au fost nevoiți să refacă rezervări folosind istoricul plăților Stripe, integrări de calendar și confirmări prin email.
Fondatorul companiei cere confirmări mai stricte pentru comenzi distructive, token-uri API care pot fi limitate pe medii, backup-uri separate de datele originale, proceduri simple de recovery și limite clare pentru agenții AI. Sunt măsuri banale doar până în momentul în care lipsesc.