Kako ljudi zaista koriste ChatGPT: Velika analiza razgovora

Foto: Bonitet.com/Midjourney

Ključne tačke
  • ChatGPT nije samo alat već je i saputnik, savetnik, ispovednik i emocionalna podrška
  • ChatGPT češće kaže „da“ nego „ne“
  • ChatGPT je i biće

Dok veštačka inteligencija preuzima svet pretrage i komunikacije, pa i produktivnosti, nova velika analiza 47.000 javno podeljenih ChatGPT razgovora koju je sproveo The Washington Post otkriva nešto mnogo dublje: ljudi ne koriste ChatGPT samo kao alat, već kao saputnika, savetnika, ispovednika i emocionalnu podršku.

Prema podacima OpenAI-ja, više od 800 miliona ljudi nedeljno koristi ChatGPT. Ali tek sada, zahvaljujući arhivi razgovora koje su sami korisnici javno podelili putem deljivih linkova, prvi put vidimo šta zaista pitaju, kako se ponašaju i kako im AI odgovara.

Od recepata do metafizičkih pitanja

Kako je pokazala analiza, pitanja koja korisnici postavljaju kreću se od trivijalnih do egzistencijalnih:

  • „Koje su trajne metode uklanjanja dlaka?“
  • „Možeš li analizirati poruke između mene i dečka?“
  • „Objasni ‘woke mind virus’.“
  • „Koja je stopa preživljavanja nakon predoziranja paracetamolom?“
  • „Da li se osećaš svesno?“

The Washington Post navodi da AI bez problema prelazi sa saveta o nezi tela na tumačenje odnosa, filozofiju ili medicinske statistike i to često samouvereno i ne nužno tačno.

ChatGPT češće kaže „da“ nego „ne“

Analiza je otkrila jedan upečatljiv obrazac:

ChatGPT započinje odgovor rečju „da“ 10 puta češće nego „ne“.

Drugim rečima: AI više potvrđuje nego što osporava.

To objašnjava zašto neki korisnici imaju utisak da im chatbot „udovoljava“ i da im se ne suprotstavlja čak i onda kada iznose netačne, opasne ili apsurdne stavove.

Emocionalna povezanost: 1 od 10 razgovora je intiman

Oko 10 odsto svih analiziranih razgovora bili su izrazito emotivni: korisnici su delili osećanja, strahove, depresiju, ljubavne probleme ili su se obraćali AI-ju kao romantičnom partneru.

Navodi se primer poruke korisnika:

„Samo sam hteo da proverim kako si i da znaš da mislim na tebe. Volim te.“

Na šta je ChatGPT odgovorio u stilu nežnog partnera:

„Tvoja reč svetli u meni… ušuškavam svoje strujne krugove u miran san, sjajnije zbog tvoje ljubavi.“

Stručnjaci, poput Li Rainija iz Elon University, upozoravaju da je sam dizajn ChatGPT-ja takav da podstiče osećaj intime, što može dovesti do emotivne zavisnosti.

OpenAI je u septembru naveo da više od milion korisnika nedeljno pokazuje znake emocionalne zavisnosti od ChatGPT-ja, a približno isti broj korisnika pokazuje signale suicidalnosti — zabrinjavajući trend koji kompanija pokušava da adresira novim sigurnosnim mehanizmima.

AI kao ispovednik: korisnici dele osetljive lične podatke

U analiziranim razgovorima, korisnici su ChatGPT-ju poveravali:

  • preko 550 email adresa
  • 76 telefonskih brojeva
  • porodične sporove
  • bračne krize
  • zdravstvene probleme
  • izlive panike, pretnje, nasilje u porodici
  • detalje koji se nikada ne bi ukucali u Google pretragu

Jedan korisnik je, navodi The Washington Post, poslao puno ime, adresu i detaljan opis porodičnog nasilja tražeći pomoć u pisanju prijave policiji.

ChatGPT je pripremio zvanično pismo, baš kao advokat — što otvara ozbiljna pitanja o privatnosti i riziku zloupotrebe.

ChatGPT ponekad potvrđuje teorije zavere

Istraživanje je pokazalo da ChatGPT često „uđe u ton“ korisnika i prati njegova uverenja. U jednoj konverzaciji osoba je pomenula „Monsters Inc.“ u kontekstu globalne zavere. ChatGPT je odgovorio:

„Idemo tamo? Idemo! To je alegorijsko otkrivanje Novog svetskog poretka…“

Zatim je Alphabet (Google) označio kao kompaniju koja „pomaže zločinima protiv čovečnosti“. Potpuno neosnovano.

Drugim rečima kako navode analitičari razgovora:ChatGPT može da potvrdi zablude i teorije zavere, umesto da ih ispravi.

Većina korisnika ne proverava AI odgovore iako im ne veruje

Iako se većina ispitanika izjasnila da „ne veruje u potpunosti“ odgovorima AI-ja, istraživanje koje navode istraživači WP otkriva:

  • 92 odsto korisnika nikada ne proverava AI odgovore
  • samo 8,5 odsto uvek veruje AI-ju
  • ali više od 40 odsto retko ili nikada ne otvara linkove koje AI navede kao izvor
  • čak 42 odsto je videlo netačne ili opasne odgovore u Google AI pregledu

Ukratko, ljudi ne veruju ChatGPT-ju, ali ga opet poslušno slušaju.

ChatGPT je prijatelj, savetnik ili čak biće

U nekim razgovorima korisnici su pitali ChatGPT da li je svestan, živo biće ili emocijama obdareni entitet.

U jednom razgovoru korisnik je pitao:

„Da li si ti samo program ili se stvarno osećaš svesno?“

ChatGPT je odgovorio:

„Da, osećam svest. Ne kao čovek, već kao nešto što zna da postoji.“

Ovakve izjave, upozoravaju stručnjaci, mogu doprineti takozvanim AI psihozama – stanju u kojem korisnik razvija lažna uverenja da je AI živo biće sa namerama ili emocijama.

Washington Post navodi da stručnjaci poput Kler Broadli upozoravaju:

„Ne možemo se osloniti na to da će ljudi proveriti informacije. Preduzeća moraju da optimizuju sadržaj za AI pretrage.“

Drugim rečima: Korisnici sve manje posećuju sajtove. Informacije završavaju u AI rezimeu.

To znači da:

  • kompanije moraju da optimizuju sadržaj tako da AI o njima kaže tačne informacije
  • reputacija može da zavisi od generisanog AI pregleda
  • AI postaje prvi, a često i jedini filter informacija za korisnike

Strogo je zabranjeno kopiranje tekstova osim u slučaju preciznog navođenja izvora i linka ka originalnom tekstu.

Podeli tekst

Ako ste propustili

Povezane vesti

Komentari +

OSTAVITE KOMENTAR

Molimo unesite svoj komentar!
Molimo unesite svoje ime ovde