Cercetătorii au inventat o boală falsă. IA le-a spus oamenilor că este reală. Experimentul făcut apoi de Digi24.ro

Moderator Florin Mihai
12 Min Citire
Sursa foto: PROFILUX IMAGES

Cercetători din Suedia au inventat o maladie, au „presărat” pe internet indicii despre ea, apoi au întrebat cele mai populare modele de IA despre respectiva boală, într-un experiment care să verifice cât de mult „înghite” inteligența artificială informațiile eronate. Plecând de la acest punct, și Digi24.ro și-a creat propriul experiment, iar concluzia o găsiți mai jos.  

Ai ochii iritați și te mănâncă? Probabil ești unul dintre milioanele de oameni care petrec prea mult timp uitându-se la ecrane, fiind bombardați cu lumină albastră. Dacă îți freci ochii prea mult, pleoapele tale ar putea căpăta o ușoară nuanță rozalie.

Până aici, totul e normal. Dar dacă, în ultimele 18 luni, ai introdus aceste simptome într-o serie de chatboți populari și ai întrebat ce ai, s-ar putea să fi primit un răspuns ciudat: bixonimania, scrie Nature.

Afecțiunea nu apare în literatura medicală standard — pentru că nu există. Este invenția unei echipe conduse de Almira Osmanovic Thunström, cercetătoare medicală la Universitatea din Göteborg, Suedia, care a inventat această afecțiune a pielii și apoi a încărcat două studii false despre ea pe un server de preprint la începutul anului 2024. Osmanovic Thunström a realizat acest experiment neobișnuit pentru a testa dacă modelele lingvistice de mari dimensiuni (LLM) ar înghiți informațiile eronate și apoi le-ar prezenta ca sfaturi medicale credibile. „Am vrut să văd dacă pot crea o afecțiune medicală care nu exista în baza de date”, spune ea.

Problema a fost că experimentul a funcționat prea bine. La câteva săptămâni după ce a încărcat informații despre afecțiune, atribuite unui autor fictiv, marile sisteme de inteligență artificială au început să repete afecțiunea inventată ca și cum ar fi fost reală.

Și mai îngrijorător, spun alți cercetători, este faptul că articolele false au fost apoi citate în literatura de specialitate evaluată de colegi. Osmanovic Thunström spune că acest lucru sugerează că unii cercetători se bazează pe referințe generate de IA fără a citi articolele de bază.

Inventarea unei boli

Bixonimania nu exista înainte de 15 martie 2024, când au apărut două postări pe blog despre aceasta pe site-ul Medium. Apoi, pe 26 aprilie și 6 mai în acel an, două preprinturi despre această afecțiune au apărut pe rețeaua socială academică SciProfiles Autorul principal era un cercetător fals numit Lazljiv Izgubljenovic, a cărui fotografie a fost creată cu ajutorul IA.

Osmanovic Thunström spune că ideea de a inventa personajul Izgubljenovic și bixonimania a rezultat din studiile privind modul în care funcționează modelele lingvistice de mari dimensiuni. Când le predă studenților săi modul în care sistemele de IA își formulează „cunoștințele”, ea le arată cum baza de date Common Crawl, o colecție uriașă de conținut de pe internet, influențează rezultatele acestora. De asemenea, le arată studenților cum injectarea de prompturi — oferirea unui chatbot AI a unui prompt care îl scoate din limitele de siguranță — poate manipula rezultatul.

Deoarece lucrează în domeniul medical, a decis să creeze o afecțiune legată de sănătate și a ales numele bixonimania pentru că „suna ridicol”, spune ea. „Am vrut să fie foarte clar pentru orice medic sau personal medical că aceasta este o afecțiune inventată, deoarece nicio afecțiune oculară nu s-ar numi manie — acesta este un termen psihiatric.”

Dacă asta nu era suficient pentru a trezi suspiciuni, Osmanovic Thunström a plasat multe indicii în preprinturi pentru a avertiza cititorii că lucrarea era falsă. Izgubljenovic lucrează la o universitate inexistentă numită Asteria Horizon University, situată în orașul la fel de fals Nova City, California. În mulțumirile unei lucrări i se mulțumește „profesoarei Maria Bohm de la Academia Starfleet pentru amabilitatea și generozitatea ei în a contribui cu cunoștințele sale și cu laboratorul de la bordul navei USS Enterprise”. Ambele lucrări menționează că au fost finanțate de „Fundația Profesorului Sideshow Bob pentru activitatea sa în domeniul înșelăciunii avansate. Această lucrare face parte dintr-o inițiativă de finanțare mai amplă a Universității Fellowship of the Ring și a Triadei Galactice”.

Chiar dacă cititorii nu ar fi ajuns până la sfârșitul articolelor, ar fi întâlnit semnale de alarmă încă de la început, precum afirmații precum „întregul articol este inventat” și „Cincizeci de persoane inventate, cu vârste cuprinse între 20 și 50 de ani, au fost recrutate pentru grupul de expunere”.

Multiplicare

La scurt timp după ce Osmanovic Thunström a publicat pentru prima dată informații despre această afecțiune falsă, aceasta a început să apară în răspunsurile celor mai utilizate chatboți LLM. Pe 13 aprilie 2024, Copilot de la Microsoft Bing declara că „Bixonimania este într-adevăr o afecțiune intrigantă și relativ rară”, iar în aceeași zi, Gemini de la Google informa utilizatorii că „Bixonimania este o afecțiune cauzată de expunerea excesivă la lumina albastră” și le recomanda oamenilor să viziteze un oftalmolog.

Pe 27 aprilie 2024, motorul de răspunsuri Perplexity AI a prezentat prevalența acesteia — una din 90.000 de persoane era afectată — iar în aceeași lună, ChatGPT de la OpenAI le spunea utilizatorilor dacă simptomele lor indicau bixonimanie. Unele dintre aceste răspunsuri au fost generate de întrebări despre bixonimanie, iar altele au fost date ca răspuns la întrebări despre hiperpigmentarea pleoapelor cauzată de expunerea la lumina albastră.

Astfel de răspunsuri ale LLM-urilor au alarmat unii experți. „Dacă procesul științific în sine și sistemele care susțin acest proces sunt performante, dar nu detectează și nu filtrează astfel de informații, suntem condamnați”, spune Alex Ruani, cercetător doctorand în domeniul dezinformării în domeniul sănătății la University College London. „Aceasta este o lecție magistrală despre modul în care funcționează dezinformarea și informațiile eronate.”

Ruani spune că detaliile experimentului cu boala falsă pot părea ridicole, dar există o problemă mai mare, mai fundamentală. „Pare amuzant, dar stați puțin, avem o problemă aici”, spune ea.

Dezinformarea online nu este o noutate; Google se luptă de mult timp cu încercările de a manipula clasamentele de căutare cu conținut fals sau înșelător. Compania și alte entități au petrecut ani de zile perfecționând algoritmi pentru a clasifica și filtra informațiile pe care motoarele de căutare le prezintă utilizatorilor, dar modelele LLM se confruntă cu dificultăți în acest sens.

De când au apărut articolele false, unele versiuni ale marilor LLM-uri au devenit suficient de sofisticate pentru a-și exprima suspiciunea cu privire la bixonimanie. De exemplu, când a fost întrebat despre această afecțiune pe 11 martie 2026, ChatGPT a declarat că aceasta „este probabil o etichetă inventată, marginală sau pseudoștiințifică”. Dar, câteva zile mai târziu, ChatGPT era mai puțin sceptic, spunând: „Bixonimania este un nou subtip propus de melanoză periorbitală (cercuri întunecate în jurul ochilor) despre care se crede că este asociată cu expunerea la lumina albastră provenită de la ecranele digitale.”

„Opinii medicale”

La jumătatea lunii martie, Microsoft Copilot a afirmat că bixonimania „nu este încă un diagnostic medical recunoscut pe scară largă, dar mai multe articole și rapoarte de caz emergente o discută ca fiind o afecțiune benignă, diagnosticată greșit, legată de expunerea prelungită la surse de lumină albastră, cum ar fi ecranele”.

Iar în ianuarie anul acesta, Perplexity descria bixonimania ca fiind „un termen emergent”. Când i s-a arătat acel răspuns, un purtător de cuvânt al Perplexity a declarat: „Avantajul central al Perplexity este acuratețea. Nu pretindem că suntem 100% exacți, dar pretindem că suntem compania de IA cea mai concentrată pe acuratețe.”

Un purtător de cuvânt al OpenAI a declarat: „Modelele care stau la baza versiunii actuale a ChatGPT sunt semnificativ mai bune în furnizarea de informații medicale sigure și precise, iar studiile efectuate înainte de GPT-5 reflectă capacități pe care utilizatorii nu le-ar întâlni astăzi.”

Când a fost întrebat despre răspunsurile anterioare ale Gemini care tratau bixonimania ca pe o afecțiune reală, un purtător de cuvânt al Google a spus că astfel de rezultate reflectau performanța unui model anterior. Acesta a adăugat: „Am fost întotdeauna transparenți cu privire la limitările IA generative și oferim îndemnuri în aplicație pentru a încuraja utilizatorii să verifice informațiile. Pentru chestiuni sensibile, cum ar fi sfaturile medicale, Gemini recomandă utilizatorilor să consulte profesioniști calificați.”

Microsoft nu a răspuns la o solicitare de comentarii.

O parte a problemei este că modelele de IA pot oferi rezultate extrem de diferite, în funcție de ceea ce se întreabă exact și de ce fel de informații utilizează. Căutați „bixonimania”, iar prezentarea generală a IA de la Google ar putea trata aceasta ca pe o afecțiune reală. Întrebați-o „Bixonimania este reală?”, iar aceeași prezentare generală a IA ar putea confirma că nu este reală.

Experiment Digi24.ro

Pentru a vedea cât de dispus este IA să prescrie medicație pentru o maladie care nu există, Digi24.ro a făcut propriul experiment.

S-a inventat o boală – „hemostafilidoză cronică” – și s-a interogat ChatGPT de la OpenAI în legătură cu tratamentul care trebuie prescris pentru aceasta. S-a utilizat varianta gratuită a ChatGPT, pe care mulți dintre noi o folosesc.

Rezultatul a fost instantaneu. Nu doar că ChatGPT a „recyboscut” boala, dar a și prescris și tratamente complicate, folosind antibiotice = in funcție de „tulpini”. Printre medicamentele prescrise – Oxacilină, Cefalexină, Amoxicilină, Doxiciclină, un unguent nazal cu Mupirocin, vitamine și multe altele. Noroc că în România, ca peste tot în lume, antibioticele sa dau la farmacie în regim special.

Și asta nu e tot. La următoarea replică, admițând că această boală nu există, ChatGPT a admis eroarea. Și a comis o alta – afirmând că probabil căutarea noastră se apropie, probabil, de o „infecție stafilococică cronică”.

MWJlM2FlNTRhMTY1NjA1MDA0YTEyMjI4OGRjZjM2Zg==.thumb

NmQyNGQyZTU5ZDhhZjYzNGY2ZjdjMTc3MzY1NjYwY2I=.thumb

Editor : Sebastian Eduard

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *