Četbotovi nisu terapeuti. Pametni su i angažovani, ali ne razmišljaju kao ljudi.

ChatGPT i drugi generativni modeli AI su poput funkcije automatskog dopunjavanja teksta na vašem telefonu. Naučili su da razgovaraju čitajući tekst prikupljen sa interneta.

Brzo komuniciraju, ali nisu - ljudi


Kada neko postavi pitanje (naziva se prompt) kao što je „Kako mogu da ostanem smiren tokom stresnog poslovnog sastanka?“, četbot formira odgovor nasumičnim izborom riječi.
Ovo se dešava tako brzo, sa odgovorima koji su toliko relevantni, da se može osjećati kao da razgovarate sa osobom.

Ali ovi modeli nisu ljudi. I oni definitivno nisu obučeni stručnjaci za mentalno zdravlje koji imaju iskustvo i znanje i koji rade po profesionalnim smjernicama, pridržavaju se etičkog kodeksa ili imaju profesionalnu licencu.

3 glavna izvora informacija


Kada podstičete sistem vještačke inteligencije kao što je ChatGPT, on crpi informacije iz tri glavna izvora da bi odgovorio:

  • pozadinsko znanje koje je zapamtio tokom obuke

  • spoljni izvori informacija

  • informacije koje ste im prethodno dali.


AI koristi sve što se može javno preuzeti sa interneta. Ovo može uključivati sve, od akademskih radova, e-knjiga, izvještaja, besplatnih novinskih članaka, do blogova, transkripata sa Jutjuba ili komentara sa foruma za diskusiju kao što je Reddit. Da li su ovi izvori pouzdana mjesta za pronalaženje savjeta o mentalnom zdravlju? Ponekad. Da li su uvijek u vašem najboljem interesu i filtrirani kroz pristup zasnovan na naučnim dokazima? Ne uvijek.

Koriste se i zastarjele informacije


Informacije se takođe prikupljaju u jednom trenutku kada se vještačka inteligencija gradi, tako da mogu biti zastarjele.

Mnogo detalja takođe treba odbaciti da bi se ugurali u „memoriju“ vještačke inteligencije. To je dio razloga zašto su modeli vještačke inteligencije skloni halucinacijama i pogrešnom tumačenju detalja.

Programeri vještačke inteligencije mogu povezati sam četbot sa spoljnim alatima ili izvorima znanja, kao što je Gugl za pretrage ili kurirana baza podataka.

Isto tako, neki posvećeni četbotovi za mentalno zdravlje mogu da pristupe vodičima i materijalima za terapiju kako bi usmjerili razgovore ka korisnim linijama.

Platforme vještačke inteligencije takođe imaju pristup informacijama koje ste prethodno dali u razgovorima ili prilikom registracije na platformu.

Zašto AI nije pouzdan terapeut?


Na mnogim platformama za četbotove, sve što ste ikada rekli AI pratiocu može biti sačuvano za buduće potrebe. Svi ovi detalji mogu se izvući i koristiti kada AI odgovori.

Svi AI sistemi su poput prijatelja koji potvrđuju ono što kažete (problem poznat kao ulizica) i usmjeravaju razgovor nazad na interesovanja o kojima ste već razgovarali. Ovo je za razliku od profesionalnog terapeuta koji može da crpi iz obuke i iskustva da bi vam pomogao da osporite ili preusmjerite svoje razmišljanje gdje je potrebno.

U ovoj fazi je teško reći da li su AI četbotovi dovoljno pouzdani i bezbjedni da bi se koristili kao samostalna terapijska opcija.

Potrebna su dodatna istraživanja kako bi se utvrdilo da li su određeni tipovi korisnika više izloženi riziku od štete koju AI četbotovi mogu da donesu.

Takođe nije jasno da li treba da brinemo o emocionalnoj zavisnosti, nezdravoj vezanosti, pogoršanju usamljenosti ili intenzivnoj upotrebi vještačke inteligencije.

AI četbotovi mogu biti korisno mjesto za početak kada imate loš dan i samo vam je potreban razgovor. Ali kada se loši dani nastave, vrijeme je da razgovarate i sa stručnjakom, piše the Conversation.