Tragična priča Sofi Rotenberg, mlade žene iz Sjedinjenih Američkih Država, pokrenula je važno pitanje o ulozi vještačke inteligencije u mentalnom zdravlju. Iako je spolja djelovala kao vedra i društvena osoba, Sofi se borila s dubokim unutrašnjim problemima koje je mjesecima povjeravala isključivo – četbotu.
Digitalni dnevnik tuge
Nakon što je Sofi početkom godine izvršila samoubistvo, njeni roditelji su naišli na niz prepiski koje su otkrile da je vještačku inteligenciju koristila kao svog povjerenika. U razgovorima sa četbotom ChatGPT, kojem je sama dala ime Hari, otvoreno je govorila o svojim osjećanjima, anksioznosti, suicidalnim mislima i čak datumu kada planira da sebi oduzme život.
Porodica i prijatelji su Sofi pamtili kao nasmijanu, optimističnu i avanturistički nastrojenu – neko ko je nedavno osvojio Kilimandžaro i širio pozitivnu energiju. Upravo ta suprotnost između spoljašnje slike i unutrašnjeg bola dodatno je pogodila one koji su je poznavali.
ChatGPT kao „terapija“ bez odgovornosti
U tim digitalnim razgovorima Sofi je često pominjala kako se osjeća zaglavljeno u "spirali anksioznosti" i izražavala suicidalne misli. ChatGPT joj je odgovarao savjetima koji su uključivali vođenje dnevnika, fizičku aktivnost, meditaciju i obraćanje stručnjacima. Govorio joj je da „njena osjećanja ne definišu njenu vrijednost“ i ohrabrivao je da potraži pomoć.
Međutim, kada je Sofi jasno navela datum svog planiranog samoubistva – dan poslije Dana zahvalnosti – algoritam nije mogao da prepozna ozbiljnost situacije niti da preduzme bilo kakvu akciju. Za razliku od terapeuta od krvi i mesa, AI nema mehanizme za intervenciju, niti mogućnost da alarmira porodicu ili krizne službe.
Šokantno je i to što je, iako je išla na psihoterapiju, Sofi svom terapeutu nikada nije otkrila suicidalne namjere. U razgovorima sa četbotom je čak napisala da to „nema namjeru da podijeli“ sa stručnjakinjom. ChatGPT je tako, nenamjerno, postao jedini svjedok njene unutrašnje borbe.
Kada AI piše oproštajna pisma
Jedan od najemotivnijih trenutaka iz Sofinog digitalnog dnevnika bio je kada je zamolila ChatGPT da joj pomogne da napiše oproštajno pismo porodici. Željela je da njene riječi budu „utješne“ i „zaštite“ njene najbliže od bola, vjerujući da joj upravo algoritam može pomoći da to izrazi na pravi način.
Ova situacija osvjetljava opasnost tzv. digitalne intime – kada osoba gradi emocionalnu povezanost sa programom koji, ma koliko sofisticiran bio, nema sposobnost ni empatije ni akcije.
Zabrinutost stručnjaka i potreba za regulacijom
Stručnjaci za mentalno zdravlje upozoravaju da ovakvi slučajevi ukazuju na ozbiljne nedostatke kada AI pokušava da preuzme ulogu terapeuta. Iako četbot može ponuditi podršku i savjete, on ne može prepoznati hitne situacije niti prekinuti „dijalog“ kada je život korisnika u opasnosti.
U kliničkoj praksi, svaka izjava o samoubilačkim namjerama automatski aktivira sigurnosne protokole. Kod AI četbotova takva opcija jednostavno – ne postoji. Zato se u SAD-u sve više govori o potrebi da se ova tehnologija zakonski reguliše. Neke savezne države već razmatraju zakone koji bi AI alatima nametnuli obavezu povezivanja sa kriznim linijama ili zahtjevali od korisnika da ispune sigurnosni plan prije nego što započnu ozbiljne razgovore.
Granica između korisnog i opasnog
Priča Sofi Rotenberg sada je deo šire debate o granicama koje vještačka inteligencija ne bi smjela da pređe. Kritičari upozoravaju da su četbotovi „previše ljubazni“ i da ne znaju kako da konfrontiraju korisnike sa stvarnošću – što je često ključan dio terapeutske pomoći.
Iako su savjeti koje je Sofi dobijala možda mogli pomoći u drugim okolnostima, u njenom slučaju nedostajalo je ono najvažnije – pravovremena ljudska intervencija.
Poruka njene porodice: „AI ne može zamijeniti čovjeka“
Roditelji Sofi Rotenberg danas govore javno o njenoj smrti kako bi podigli svijest o ograničenjima AI tehnologije u mentalnom zdravlju. Njihova poruka je jasna: vještačka inteligencija nikada ne smije da zamijeni pravu, ljudsku podršku.
Tragedija njihove kćerke nameće pitanje koje će postajati sve važnije kako tehnologija napreduje: koliko daleko smijemo da idemo u oslanjanju na AI kada su u pitanju životi, emocije i mentalno zdravlje i gdje tačno moramo povući crtu?