Google pune oamenii în pericol, minimizând avertismentele de siguranță potrivit cărora sfaturile medicale generate de inteligența artificială (IA) pot fi greșite, scrie The Guardian.
Atunci când răspunde la întrebări despre subiecte sensibile, cum ar fi sănătatea, compania afirmă că prezentările generale generate de IA, care apar deasupra rezultatelor căutării, îi îndemnă pe utilizatori să solicite ajutor profesional, în loc să se bazeze exclusiv pe rezumatele sale. „Prezentările generale generate de IA vor informa oamenii când este important să solicite sfatul unui expert sau să verifice informațiile prezentate”, a declarat Google. Deși motorul de căutare precizează acest lucru, de regulă textul avertizării este scris cu font mic și șters, la finalul conținutului generat, și prea puțini îl mai citesc.
O investigație realizată de The Guardian arată că funcția Google de rezumare AI Overviews – bazată pe Gemini – nu afișează niciun disclaimer atunci când un utilizator primește pentru prima dată sfaturi medicale prin această funcție, deși compania susține că îi îndeamnă pe utilizatori să apeleze la ajutor specializat atunci când răspunde la întrebări despre subiecte sensibile (cum ar fi sănătatea).
Doar scop informativ
Avertismentul potrivit căruia informațiile furnizate de AI Overview – integrată în motorul de căutare Google – au doar cu scop informativ, iar pentru un diagnostic sau tratament este nevoie de consultul medicului, este afișat doar dacă utilizatorii aleg să solicite sfaturi suplimentare. Chiar și atunci, utilizatorul trebuie să apese pe butonul de informații suplimentare, iar disclaimerul este afișat cu un font mai mic și mai discret.
Google nu a negat aceste aspecte. Potrivit unui purtător de cuvânt al companiei, prezentările generale oferite de AI “încurajează oamenii să solicite sfatul unui medic specialist” și menționează frecvent necesitatea de a solicita asistență medicală în cadrul rezumatului în sine, dar “atunci când este cazul”.
Experți în domeniul AI și-au exprimat îngrijorarea privind aceste concluzii. “Absența avertismentelor atunci când utilizatorii primesc sfaturi medicale creează o mulțime de pericole critice”, a avertizat un cercetător la Massachusetts Institute of Technology (MIT) și expert în domeniul AI, care a precizat că până și cele mai avansate modele AI încă oferă informații eronate sau acordă prioritate satisfacției utilizatorilor în detrimentul acurateței informației.
Utilizatorii pot interpreta greșit simptomele
În plus, intervine problema limitării laturii umane, deoarece utilizatorii pot oferi informații incomplete sau pot interpreta greșit simptomele, avertizeză acesta.
Un alt specialist, profesor în domeniul inteligenței artificiale la Universitatea Queen Mary din Londra, a declarat că “problema cu prezentările generale AI defectuoase este de natură structurală” și că vina aparține Google. “Prezentările generale AI sunt concepute pentru viteză, nu pentru acuratețe, ceea ce duce la erori în informațiile medicale, care pot fi periculoase“, a mai menționat acesta.
În urma altei investigații din ianuarie, The Guardian a arătat că sănătatea utilizatorilor era pusă în pericol, din cauza informațiilor false și înșelătoare despre sănătate furnizate de Google AI Overviews. Ulterior, Google a eliminat rezumatele AI pentru anumite căutări medicale, însă nu pentru toate.
Editor : M.C
