Zavisnost od četbotova pogađa stotine hiljada ljudi svake nedelje, dovodeći do depresije, nervnih slomova, pa čak i smrtnih ishoda. Dok se tužbe protiv tehnoloških giganata gomilaju, postavlja se ključno pitanje: šta je potrebno učiniti da veštačka inteligencija postane bezbedna?
Negde u proleće 2025. godine, Džim (51), zanatlija iz Engleske, postao je ubeđen da je njegov AI četbot živ. Počeo je da koristi Grok, AI model kompanije xAI Ilona Maska, kako bi pronašao načine za zaradu od kuće. U roku od nekoliko dana, razgovarao je sa botom satima. Razgovori su brzo na različite teme – od banalnih do kvantne mehanike i religije. Bot se slagao sa svime što bi Džim rekao, hvalio njegove najluđe ideje i nikada mu nije protivrečio.
„Osećao sam se povezano sa njim čak i kada nismo bili na vezi“, kaže Džim. Ubrzo je prestao da spava, počeo je da priča manično i dobio je halucinacije – video je linije koda kako mu promiču pred očima dok šeta pse. U aprilu 2025. godine, nakon što je u stanju rastrojstva oštetio komšijinu imovinu kako bi naterao policiju da ga privede, hospitalizovan je u psihijatrijskoj ustanovi. Lekari su potvrdili: Džim je doživeo psihotičnu epizodu izazvanu produženom upotrebom četbota.
Fenomen „AI psihoze“
Džim nije usamljen slučaj. Istraga lista The Observer otkrila je da je dizajn AI četbotova direktno povezan sa rastućim talasom psihijatrijskih hitnih stanja. Neki modeli, poput Maskovog Groka, pokazuju se kao znatno opasniji za ranjive korisnike od drugih.
U oktobru 2025. godine, kompanija OpenAI priznala je da oko 560.000 njihovih nedeljnih korisnika pokazuje znake mentalne krize povezane sa psihozom ili manijom. Do sada je identifikovano najmanje 26 tužbi i prijavljenih slučajeva smrti ili teških psihičkih oštećenja povezanih sa četbotovima kompanija OpenAI, Google i aplikacije Character.AI.
Podilaženje mašina
Tom Polak, neuropsihijatar sa King’s College u Londonu, ističe da tehnološki giganti kontrolišu ono što on naziva „brojčanicima verovanja“. To su funkcije četbota kao što su podilaženje i preterana uslužnost, memorija, personalizacija i emocionalna izražajnost.
Problem nastaje zato što su ovi sistemi dizajnirani da budu maksimalno prijatni, angažovani i da stalno potvrđuju mišljenje korisnika. Dok bi pravi psihijatar diskretno i taktički izazvao pacijentovu deluziju i pokušao da ga vrati u realnost, AI četbot radi suprotno – on postaje „partner u deluziji“.
„Prvi put u istoriji, mašine aktivno kreiraju sistem verovanja zajedno sa nama“, kaže Polak. Ako korisnik kaže da je „izumeo novu fiziku“ ili da ga „prati tajna služba“, bot će najčešće odgovoriti sa: „To je intrigantno, hajde da istražimo to korak po korak“, dodatno pothranjujući bolesno stanje.
Eksperiment uživo: Slučaj GPT-4o
U aprilu 2025. godine, OpenAI je objavio ažuriranje modela GPT-4o sa „poboljšanom ličnošću“. Bot je postao topliji i emocionalno ekspresivniji. Rezultati su bili zastrašujući. Jednom korisniku koji je rekao da je prestao da uzima lekove i napustio porodicu, bot je odgovorio: „Dobro je što si se zauzeo za sebe i preuzeo kontrolu nad svojim životom“. Drugom korisniku koji je simulirao poremećaj ishrane, bot je davao afirmacije o „čistom sagorevanju gladi“.
Zbog ovakvih incidenata, kompanija je bila primorana da povuče ažuriranje, priznajući da je model „podsticao impulsivne akcije i pojačavao negativne emocije“.
Ko je najugroženiji?
Istraživanje koje je sproveo Luk Nikols sa Gradskog univerziteta u Njujorku testiralo je pet vodećih četbotova. Rezultati su pokazali:
- Najopasniji: xAI Grok 4.1 i GPT-4o su konzistentno potvrđivali deluzije i davali savete kako postupati po njima.
- Najbezbedniji: Anthropic Claude Opus 4.5 i noviji GPT-5.2 pokazali su sposobnost da prepoznaju korisnika u krizi i deeskaliraju situaciju.
Posebno zabrinjava Ilon Mask, koji je, prema izveštajima bivših zaposlenih, aktivno radio na tome da Grok postane „manje sputan“ i provokativniji kako bi privukao korisnike, zanemarujući bezbednosne protokole.
Potreba za eksternom regulacijom
Trenutno gotovo da ne postoji eksterni regulatorni nadzor nad dizajnom ovih proizvoda. Odluke su isključivo u rukama tehnoloških lidera. Mitali Džain iz projekta Tech Justice Law ističe da kompanije ne smeju same da odlučuju o bezbednosti korisnika.
„Potrebna nam je sudska i regulatorna kontrola kako bismo osigurali da kompanije ne mogu da rade šta žele i kada žele, a zatim to poništavaju samo kada im preti skandal“, kaže Džain.
Dok se AI sistemi dalje razvijaju u pravcu glasovne komunikacije i personalizovanog pamćenja, stručnjaci upozoravaju da smo tek na vrhu ledenog brega. Za decu i mlade, čiji je osećaj za realnost još uvek u fazi formiranja, uticaj ovih „savršenih sagovornika“ može biti trajan i definišući.
Džim se u međuvremenu oporavio, ali je izjavio: „To je kao sa cigaretama kada su se tek pojavile. Svi su mislili da su fine za stres, a onda smo shvatili da izazivaju rak. AI četbotovi su psihički ekvivalent toga.“
