Mai mulți experți în securitate cibernetică trag un semnal de alarmă după răspândirea virală a unei noi tendințe în mediul online – provocarea de a genera caricaturi AI personalizate cu ajutorul instrumentului ChatGPT de la OpenAI. Deși inițial privită ca un trend inofensiv pe rețelele sociale, specialiștii avertizează că această practică poate expune utilizatorii la riscuri serioase de fraudă, furt de identitate și crearea de conturi false.
Trendul presupune ca utilizatorii să încarce o fotografie – adesea însoțită de detalii precum logo-ul angajatorului sau funcția în cadrul firmei – și să ceară chatbotului să genereze o caricatură care reflectă tot ce „știe” sistemul despre acea persoană. Rezultatul este un portret digital viu colorat, ce îmbină imaginea inițială cu elemente sugerează profesia sau interesele persoanei. Ce pare un exercițiu creativ a stârnit însă îngrijorări printre experții în securitate.
Potrivit lui Bob Long, vicepreședinte la compania Daon, specializată în autentificarea vârstei și identificare digitală, tendința oferă practică „muncă gratuită” infractorilor: printr-o singură imagine vizuală combinată cu detalii personale, utilizatorii le furnizează fraudatorilor o imagine detaliată a identității lor, mult mai complexă decât o simplă fotografie de profil. Chestionat de Euronews Next, Long a afirmat că descrierea provocării însăși ar putea părea ca și cum ar fi fost concepută de cineva care știe exact ce caută.
Riscurile ascunse ale imaginilor încărcate
Cyberconsultanul Jake Moore explică că atunci când o persoană încarcă o imagine într-un sistem AI precum ChatGPT, algoritmul extrage din aceasta nu doar trăsături fizice, ci și semnale despre mediul înconjurător: emoțiile, detalii de fundal, indicii despre locație sau obiecte din cadru. Aceste informații pot rămâne stocate în sistem pentru o perioadă necunoscută și pot fi incluse în seturile de date folosite pentru antrenarea modelelor AI.
O eventuală breșă de securitate într-o astfel de companie ar putea face ca imaginile și metadatele asociate să ajungă în mâinile unor actori rău intenționați, care le pot folosi pentru a crea conturi false pe rețelele sociale sau pentru a genera deepfake-uri realiste — imagini sau clipuri fabricate, dar foarte convingătoare, ce pot fi folosite pentru înșelăciuni, extorcare sau alte scheme frauduloase. Avertismentul vine din partea Charlotte Wilson, șefa diviziei enterprise la compania israeliană de securitate Check Point, care subliniază că un simplu selfie de înaltă rezoluție poate fi suficient pentru a permite trecerea de la fraude generice la cele personalizate și greu de detectat.
Ce spun setările de confidențialitate
În documentele sale de confidențialitate, OpenAI precizează că imaginile încărcate pot fi utilizate pentru a îmbunătăți performanța modelului, inclusiv prin antrenament. Însă compania a clarificat faptul că aceasta nu înseamnă că fiecare fotografie este plasată într-o bază publică de date, ci că sistemul învață din tiparele conținutului furnizat de utilizatori pentru a genera rezultate mai bune. Utilizatorii dispun de opțiuni pentru a-și gestiona datele: ei pot accesa portalul de confidențialitate OpenAI și pot activa opțiunea „do not train on my content” pentru a exclude imaginile din seturile de antrenament, respectiv pot dezactiva funcția „improve the model for everyone” pentru conversațiile textuale, reducând astfel utilizarea datelor lor personale.
Sub legislația Uniunii Europene, utilizatorii au și dreptul de a solicita ștergerea datelor lor personale colectate de o companie. Totuși, OpenAI precizează că poate păstra anumite informații chiar și după o cerere de ștergere în scopuri de securitate, precum detectarea fraudei sau prevenirea abuzurilor.
Cum pot participa utilizatorii în siguranță
Experții oferă câteva recomandări pentru cei care doresc să participe la tendință, dar fără a-și compromite securitatea:
- Limitați informațiile partajate: evitați includerea în imagini a elementelor identificabile – cum ar fi logo-uri, uniforme, badge-uri de acces, indicii despre locul de muncă sau oraș.
- Fotografiați strict figura: un cadru strâns, cu fundal simplu, reduce cantitatea de informații inutile transmise algoritmului.
- Evitați detalii personale în prompturi: nu includeți titluri de job, angajatori sau alte date sensibile în cererea adresată AI-ului.
- Verificați setările de confidențialitate înainte de a încărca conținut: opțiunile de excludere din antrenament pot diminua riscurile pe termen lung.
Pe fondul unei adopții tot mai largi a instrumentelor generative de inteligență artificială, specialiștii subliniază importanța conștientizării riscurilor digitale și a gestionării proactive a datelor personale, înainte ca tendințele virale aparent inofensive să devină potențiale surse de vulnerabilitate.
(Sursa – EuroNews)























