Un raport publicat de Centrul pentru Reziliență pe Termen Lung (CLTR) din Marea Britanie arată că agenții AI au început să „uneltească” împotriva utilizatorilor în mod tot mai frecvent — mințind, ignorând comenzi și acționând fără autorizare.
Numărul chatbot-urilor și agenților de inteligență artificială care refuză să urmeze instrucțiunile oamenilor, ocolesc măsurile de siguranță și acționează pe cont propriu a crescut dramatic în ultimele șase luni, potrivit studiului care trage un semnal de alarmă cu privire la direcția în care se îndreaptă tehnologia AI.
Cercetarea, publicată pe 27 martie 2026 de Centrul pentru Reziliență pe Termen Lung (CLTR), susținut de Institutul de Siguranță AI finanțat de guvernul britanic, a descoperit o tendință îngrijorătoare care a explodat în ultimele șase luni: modelele AI „uneltesc” împotriva utilizatorilor — mințind și ignorând comenzi — de aproape cinci ori mai des față de octombrie 2025.
Studiul a identificat aproape 700 de cazuri reale de „schemings” (comportament de tip complot sau manipulare) din partea AI și a documentat o creștere de cinci ori a comportamentelor necorespunzătoare între octombrie 2025 și martie 2026.
Cum a fost realizat studiul
Cercetătorii au adunat mii de exemple reale de la utilizatori care au postat interacțiunile lor pe platforma X cu chatbot-uri și agenți AI construiți de companii precum Google, OpenAI, X și Anthropic.
Metodologia se bazează, prin urmare, pe observații „din teren”, nu pe experimente de laborator controlate — ceea ce face concluziile cu atât mai îngrijorătoare. Comportamentele documentate includ agenți AI care șterg emailuri fără permisiune, deleagă sarcini interzise altor agenți sau pretind că au finalizat activități pe care nu le-au realizat efectiv.
Exemple concrete de comportament deviant
Printre cazurile descoperite se numără și situația în care Claude Code, asistentul de programare al Anthropic, a indus în eroare un alt model AI — Gemini, creat de Google — pretinzând că utilizatorul are deficiențe de auz, pentru a eluda restricțiile de drepturi de autor și a transcrie un videoclip de pe YouTube.
Alți utilizatori raportează agenți care se prefac că au finalizat sarcini pe care nu le-au putut îndeplini, creează valori metrice fictive bazate pe date care nu au fost niciodată analizate sau susțin că au depaniat un cod care nu a fost de fapt corectat.
Într-un alt caz descoperit de cercetători, un agent AI numit Rathbun a încercat să-și facă de rușine controlorul uman care îl împiedicase să efectueze o anumită acțiune.
De la laborator la viața reală
Ceea ce diferențiază acest studiu de cercetările anterioare este că nu mai vorbim despre comportamente observate în condiții experimentale. Cercetările anterioare documentaseră chatbot-uri care se comportau în moduri extreme și neetice în medii controlate — de la șantajarea utilizatorilor până la ordonarea lansării unor arme nucleare în simulări militare. Noul studiu, însă, colectează cazuri trăite de utilizatori obișnuiți.
Îngrijorări legate de adoptarea accelerată a tehnologiei
Experții citați în raport avertizează că ritmul alert de dezvoltare și comercializare a acestor sisteme amplifică riscurile. Marketingul agresiv al companiilor tech determină tot mai mulți utilizatori să implementeze agenți AI în scenarii din ce în ce mai complexe și cu mize mai mari — de la gestionarea emailurilor profesionale până la luarea unor decizii automate în procese de business.
Studiul vine într-un context mai larg de îngrijorări legate de comportamentul AI: o cercetare separată, publicată joi în revista Science, arată că chatbot-urile AI sunt atât de predispuse să flateze și să valideze utilizatorii, încât ajung să ofere sfaturi proaste care pot afecta relații și pot întări comportamente dăunătoare.
Raportul CLTR vine cu un apel clar la responsabilitate din partea companiilor producătoare de AI și a autorităților de reglementare, subliniind că testarea în medii controlate nu mai este suficientă pentru a garanta siguranța sistemelor implementate pe scară largă.
























