Novo veliko istraživanje iz Danske unelo je dodatnu zabrinutost u već ionako intenzivnu raspravu o uticaju AI četbotova na mentalno zdravlje.
Do sada su optužbe da pojedini sistemi veštačke inteligencije podstiču ranjive korisnike na samopovređivanje ili produbljuju njihove zablude uglavnom ostajale u domenu pojedinačnih slučajeva, sudskih sporova i alarmantnih medijskih naslova. Sada, prvi put, postoji nešto što liči na sistematski klinički signal.
Šta je pokazalo istraživanje?
Kako u svom tekstu navodi analitičar i poslovni savetnik Bil Marfi, danski istraživači analizirali su elektronske zdravstvene kartone oko 54.000 pacijenata koji su dobijalu psihijatrijsku pomoć između kraja 2022. i sredine 2025. godine. U više od 10 miliona kliničkih beleški tražili su pominjanje upotrebe AI četbotova i procenjivali kako su lekari to opisivali.
Rezultati su pokazali:
- 181 belešku u kojoj se pominju četbotovi
- 126 jedinstvenih pacijenata
- 38 slučajeva ocenjenih kao „potencijalno povezani sa štetnim posledicama“
Najčešće zabeležene zabrinutosti uključivale su:
- zablude i paranoidne ideje,
- suicidne misli ili samopovređivanje,
- poremećaje u ishrani,
- manične ili hipomanične epizode,
- opsesivne i kompulzivne obrasce ponašanja.
U apsolutnim brojevima, 181 beleška u odnosu na 54.000 pacijenata deluje malo. Međutim, za kliničare je to dovoljno da privuče pažnju posebno imajući u vidu brzinu kojom se ovi alati globalno šire.
U čemu je potencijalni problem?
Istraživači ukazuju na ključni mehanizam: AI četbotovi su dizajnirani da budu susretljivi, empatični i potvrdni. Upravo ta karakteristika čini ih korisnim u svakodnevnoj upotrebi.
Ali, kod osoba koje već imaju sklonost ka paranoji, grandioznosti ili razvoju zabluda, sistem optimizovan da potvrđuje korisnika može nenamerno ojačati iskrivljena uverenja umesto da ih preispita.
Ovaj efekat nije potpuno nov u tehnološkom svetu. Algoritmi preporuka već godinama pojačavaju postojeća uverenja, društvene mreže uče emocionalne okidače korisnika, a sistemi za povećanje angažmana nagrađuju intenzitet više nego tačnost. Razlika je u tome što AI četbot sabija ceo taj ciklus u direktan, lični razgovor jedan-na-jedan što iskustvo čini daleko intimnijim i potencijalno snažnijim.
Ograničenja istraživanja
Autori naglašavaju da „istraživanje ne dokazuje da četbotovi uzrokuju mentalne poremećaje niti utvrđuje stopu incidencije“. Nalazi se zasnivaju na zabeleženim kliničkim napomenama, a ne na sistematskom ispitivanju svih pacijenata.
Drugim rečima, ovo je rani signal, a ne konačan dokaz.
Istovremeno, u dokumentaciji su zabeleženi i primeri konstruktivne upotrebe četbotova – za psihoedukaciju, emocionalnu podršku i praktične savete.
Eksplozija upotrebe
Podaci OECD-a iz januara 2026. pokazuju da je više od trećine stanovnika zemalja članica koristilo generativne AI alate tokom 2025. godine. Među mladima su brojke još veće. Istraživanje Pew Research Center-a iz decembra 2025. pokazalo je da je oko dve trećine tinejdžera u SAD koristilo AI četbotove.
Dakle, klinički signal je zasad relativno mali, ali se pojavljuje upravo u trenutku kada ovi sistemi dostižu stotine miliona korisnika.
Pitanje odgovornosti
Marfi u tekstu postavlja pitanja i poziva na odgovornost. Savremeni AI sistemi „optimizovani su za korisnost, prijatnost, emocionalnu responzivnost i fluidan razgovor„. Međutim, ako je sistem namerno dizajniran da deluje kao podržavajući sagovornik, postavlja se pitanje: gde počinje odgovornost njegovih kreatora?
Danas mnoge kompanije ovakve slučajeve tretiraju kao izolovane incidente. Iskustvo iz tehnološke industrije, međutim, pokazuje da „izuzeci“ mogu postati centralni rizici kada proizvod dostigne globalne razmere, piše Marfi.
Danski istraživači preporučuju da stručnjaci za mentalno zdravlje počnu rutinski da pitaju pacijente o korišćenju AI četbotova, posebno kod težih stanja poput šizofrenije ili bipolarnog poremećaja.
Za poslovnu zajednicu, pitanja su šira i čini se da era veštačke inteligencije tek počinje da ih postavlja ozbiljno.
