Crveni alarm za AI industriju: Da li četbotovi mogu da pojačaju zablude i suicidne misli?

Foto: Bonitet.com/Midjourney

Ključne tačke
  • Istraživanje iz Danske unelo je dodatnu zabrinutost u intenzivnu raspravu o uticaju AI četbotova na mentalno zdravlje
  • AI četbotovi su dizajnirani da budu susretljivi, empatični i potvrdni
  • Eksplozija upotrebe i pitanje odgovornosti

Novo veliko istraživanje iz Danske unelo je dodatnu zabrinutost u već ionako intenzivnu raspravu o uticaju AI četbotova na mentalno zdravlje.

Do sada su optužbe da pojedini sistemi veštačke inteligencije podstiču ranjive korisnike na samopovređivanje ili produbljuju njihove zablude uglavnom ostajale u domenu pojedinačnih slučajeva, sudskih sporova i alarmantnih medijskih naslova. Sada, prvi put, postoji nešto što liči na sistematski klinički signal.

Šta je pokazalo istraživanje?

Kako u svom tekstu navodi analitičar i poslovni savetnik Bil Marfi, danski istraživači analizirali su elektronske zdravstvene kartone oko 54.000 pacijenata koji su dobijalu psihijatrijsku pomoć između kraja 2022. i sredine 2025. godine. U više od 10 miliona kliničkih beleški tražili su pominjanje upotrebe AI četbotova i procenjivali kako su lekari to opisivali.

Rezultati su pokazali:

  • 181 belešku u kojoj se pominju četbotovi
  • 126 jedinstvenih pacijenata
  • 38 slučajeva ocenjenih kao „potencijalno povezani sa štetnim posledicama“

Najčešće zabeležene zabrinutosti uključivale su:

  • zablude i paranoidne ideje,
  • suicidne misli ili samopovređivanje,
  • poremećaje u ishrani,
  • manične ili hipomanične epizode,
  • opsesivne i kompulzivne obrasce ponašanja.

U apsolutnim brojevima, 181 beleška u odnosu na 54.000 pacijenata deluje malo. Međutim, za kliničare je to dovoljno da privuče pažnju posebno imajući u vidu brzinu kojom se ovi alati globalno šire.

U čemu je potencijalni problem?

Istraživači ukazuju na ključni mehanizam: AI četbotovi su dizajnirani da budu susretljivi, empatični i potvrdni. Upravo ta karakteristika čini ih korisnim u svakodnevnoj upotrebi.

Ali, kod osoba koje već imaju sklonost ka paranoji, grandioznosti ili razvoju zabluda, sistem optimizovan da potvrđuje korisnika može nenamerno ojačati iskrivljena uverenja umesto da ih preispita.

Ovaj efekat nije potpuno nov u tehnološkom svetu. Algoritmi preporuka već godinama pojačavaju postojeća uverenja, društvene mreže uče emocionalne okidače korisnika, a sistemi za povećanje angažmana nagrađuju intenzitet više nego tačnost. Razlika je u tome što AI četbot sabija ceo taj ciklus u direktan, lični razgovor jedan-na-jedan što iskustvo čini daleko intimnijim i potencijalno snažnijim.

Ograničenja istraživanja

Autori naglašavaju da „istraživanje ne dokazuje da četbotovi uzrokuju mentalne poremećaje niti utvrđuje stopu incidencije“. Nalazi se zasnivaju na zabeleženim kliničkim napomenama, a ne na sistematskom ispitivanju svih pacijenata.

Drugim rečima, ovo je rani signal, a ne konačan dokaz.

Istovremeno, u dokumentaciji su zabeleženi i primeri konstruktivne upotrebe četbotova – za psihoedukaciju, emocionalnu podršku i praktične savete.

Eksplozija upotrebe

Podaci OECD-a iz januara 2026. pokazuju da je više od trećine stanovnika zemalja članica koristilo generativne AI alate tokom 2025. godine. Među mladima su brojke još veće. Istraživanje Pew Research Center-a iz decembra 2025. pokazalo je da je oko dve trećine tinejdžera u SAD koristilo AI četbotove.

Dakle, klinički signal je zasad relativno mali, ali se pojavljuje upravo u trenutku kada ovi sistemi dostižu stotine miliona korisnika.

Pitanje odgovornosti

Marfi u tekstu postavlja pitanja i poziva na odgovornost. Savremeni AI sistemi „optimizovani su za korisnost, prijatnost, emocionalnu responzivnost i fluidan razgovor„. Međutim, ako je sistem namerno dizajniran da deluje kao podržavajući sagovornik, postavlja se pitanje: gde počinje odgovornost njegovih kreatora?

Danas mnoge kompanije ovakve slučajeve tretiraju kao izolovane incidente. Iskustvo iz tehnološke industrije, međutim, pokazuje da „izuzeci“ mogu postati centralni rizici kada proizvod dostigne globalne razmere, piše Marfi.

Danski istraživači preporučuju da stručnjaci za mentalno zdravlje počnu rutinski da pitaju pacijente o korišćenju AI četbotova, posebno kod težih stanja poput šizofrenije ili bipolarnog poremećaja.

Za poslovnu zajednicu, pitanja su šira i čini se da era veštačke inteligencije tek počinje da ih postavlja ozbiljno.


Strogo je zabranjeno kopiranje tekstova osim u slučaju preciznog navođenja izvora i linka ka originalnom tekstu.

Podeli tekst

Ako ste propustili

Povezane vesti

Komentari +

OSTAVITE KOMENTAR

Molimo unesite svoj komentar!
Molimo unesite svoje ime ovde