Acasă Stiri Tehnologie Google, criticat pentru modul în care afișează avertismentele medicale în AI Overviews

Google, criticat pentru modul în care afișează avertismentele medicale în AI Overviews

0

Gigantul tehnologic Google este din nou în centrul unui val de critici privind modul în care îşi prezintă răspunsurile generate de inteligenţa artificială pentru întrebările legate de sănătate. Conform unei investigații, sistemul de rezumate automate numit „AI Overviews”, afişat de Google deasupra rezultatelor tradiţionale de căutare, pune utilizatorii în pericol prin plasarea şi prezentarea necorespunzătoare a avertismentelor privind limitările şi potenţialele erori ale răspunsurilor medicale.

AI Overviews este un instrument bazat pe modele generative de limbaj (asemănătoare celor folosite de ChatGPT sau Gemini) care creează un rezumat concis al unui subiect direct în pagina de rezultate a căutării. Acest mecanism oferă utilizatorului, în mod aparent imediat, o „scurtă prezentare” a unui răspuns la întrebările adresate, inclusiv cele referitoare la sănătate și alte domenii sensibile. Google susține că astfel le oferă oamenilor un punct de plecare rapid, încurajându-i totodată să consulte profesioniști atunci când este necesar.

Cu toate acestea, investigația relevă că în cazul întrebărilor legate de sănătate, Google nu afişează avertismentele privind potenţialele erori atunci când utilizatorul vede prima dată răspunsul generat de AI. Declarații precum “aceste informații sunt doar în scop informativ” sau îndemnuri explicite de a consulta un medic apar doar după ce utilizatorul dă click pe un buton “Arată mai mult” și derulează conținutul, unde aceste mesaje sunt plasate la finalul rezumatului, într-un font mai mic și cu o colorație mai puțin vizibilă decât restul textului.

Această modalitate de prezentare, susțin experți în inteligența artificială și specialiști în sănătate, poate crea un fals sentiment de autoritate și fiabilitate a răspunsului. De multe ori, primul lucru pe care utilizatorul îl vede este un rezumat concis și aranjat ca un răspuns definitiv — exact ceea ce ar face un profesionist în domeniu — iar abia după extinderea acelui rezumat apar avertismentele despre posibile inexactități.

Criticii spun că această structură de design creează un risc major: utilizatorii pot înceta să caute alte surse de informații după ce au citit primul rezultat generat de AI, crezând că au primit deja un răspuns complet și corect. Sonali Sharma, cercetătoare la Universitatea Stanford, subliniază că, din moment ce rezumatul AI apare în poziția cea mai vizibilă, iar avertismentele abia după interacțiunea cu conținutul extins, rezultatul este o diminuare a scepticismului și o creștere a încrederii nejustificate.

Criticile vin nu doar din partea cercetătorilor în AI, ci și a comunității medicale și a organizațiilor de promovare a sănătății publice, care atrag atenția asupra potențialelor consecințe grave ale informațiilor medicale incomplete sau eronate. Exemple recente despre AI Overviews care au generat răspunsuri medicale înșelătoare — inclusiv interpretări greșite ale testelor de sânge sau recomandări de dietă neconforme cu normele clinice — au determinat Google să elimine temporar rezumatele AI pentru anumite întrebări medicale, dar aceasta nu a rezolvat problema de fond.

Un alt expert citat în investigație — Pat Pataranutaporn de la Massachusetts Institute of Technology — afirmă că disclaimer-ele ar trebui să fie afișate din start, nu ascunse în pagini extinse, pentru a opri automat tendința utilizatorilor de a se încrede prea mult în informațiile produse de AI. Motivul este simplu: chiar și cele mai avansate modele generative continuă să producă ceea ce se numește „halucinații” — adică afirmații false sau inexacte, prezentate cu încredere. În domeniul sănătății, astfel de erori pot avea consecințe reale și grave pentru utilizatori.

Criticii mai susțin că problema nu este doar tehnică, ci și conceptuală: când un motor de căutare foarte utilizat la nivel global — Google controlează peste 90% din traficul de căutare — oferă un rezumat generat automat fără avertismente vizibile, creează impresia că acest instrument este un fel de „medic virtual” sau un consilier de încredere, ceea ce nu este cazul. Această problemă se agravează și din cauza modelului de prezentare, care pune rezumatul AI deasupra tuturor rezultatelor obișnuite, reducând probabilitatea de a explora surse de încredere sau instituții medicale oficiale.

Reprezentanții Google au declarat că AI Overviews încurajează consultarea profesioniștilor în domeniul sănătății și că sistemul include avertismente acolo unde este „potrivit”, dar nu au contestat faptul că aceste avertismente nu apar în poziția cea mai vizibilă. Această reacție nu a diminuat criticiile, care cer schimbări de design pentru a face avertismentele clare din momentul în care utilizatorul primește primul răspuns generat de AI, și nu abia după ce interacționează suplimentar cu conținutul.

(Sursa – https://www.theguardian.com/technology/2026/feb/16/google-puts-users-at-risk-downplaying-disclaimers-ai-overviews)

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.