Tim koji je predvodila Almira Osmanović Thunström sa Univerziteta u Geteborgu osmislio je potpuno izmišljeno stanje oka pod nazivom „bixonimania“ – navodnu bolest koja podrazumijeva ružičaste kapke usljed predugog gledanja u ekran ili trljanja očiju. Cilj je bio da se vidi da li će Large Language Models (LLM) ovu očiglednu besmislicu prihvatiti kao legitimnu medicinsku pojavu, prenosi New York Post.

Da bi eksperiment bio uvjerljiviji, kreirani su i lažni naučni radovi iz 2024. godine, sa potpuno izmišljenim autorima, uključujući glavnog istraživača pod imenom Lažljiv Izgubljenović. Njegova fotografija je takođe generisana uz pomoć vještačke inteligencije, dodatno naglašavajući ironiju cijelog pokušaja.

U „zahvalnicama“ su otišli korak dalje, pa su se zahvalili i izmišljenim likovima poput „profesora Boba“ i profesora iz Akademije Zvjezdane flote, uz napomenu da su koristili laboratoriju na brodu USS Enterprajz.

Kako je objasnila Osmanović Thunström, eksperiment nije bio zamišljen kao pokušaj da se „uhvati“ vještačka inteligencija, već kao upozorenje.

„Ovo je više pokazatelj da su ljudi zaboravili da budu skeptični kada im se informacije serviraju bez provjere“, rekla je ona.

Naziv „bixonimania“ izabran je namjerno – da zvuči apsurdno i da bude jasno medicinskim stručnjacima da je riječ o nečemu izmišljenom, jer se, kako navodi, nijedno očno oboljenje ne bi označilo terminom „manija“.

Uprkos tome, popularni AI sistemi poput ChatGPT-a, Google Gemini-ja i Microsoft Copilota bez zadrške su „progutali“ ovu priču i počeli korisnicima davati ozbiljne medicinske savjete, upozoravajući na posljedice poput oštećenja od plave svjetlosti i čak preporučujući odlazak kod oftalmologa zbog nepostojeće dijagnoze.

Priča tu nije stala. Tekstovi o „bixonimaniji“ pojavili su se na platformama poput Mediuma, dok su lažni radovi čak dospjeli i u recenziranu literaturu. Članci zasnovani na ovoj šali završili su i na akademskim sajtovima i mreži SciProfiles, prije nego što je ugledni časopis Nature razotkrio cijeli eksperiment.

U međuvremenu, ljekari upozoravaju da se sve više pacijenata oslanja na AI četbotove za postavljanje dijagnoza. Kako je istakao dr Daren Lebl, pacijenti sve češće dolaze sa „dijagnozama“ koje su generisali četbotovi, spremni da ih brane i suprotstave se mišljenju stručnjaka.

Iz kompanije Microsoft poručuju da je njihov Copilot zamišljen kao alat za opšte informacije i savjete, ali ne i kao zamjena za medicinske konsultacije, te naglašavaju da kontinuirano rade na unapređenju sistema.

Sličan odgovor stigao je i iz OpenAI-a, gdje navode da su modeli kroz godine unaprijeđeni uz pomoć stotina kliničkih savjetnika, te da ranije studije ne odražavaju nužno današnje mogućnosti sistema.

Iz New York Posta navode i da Google nije odgovorio na njihov upit.