Moderna veštačka inteligencija nije ono što se čini i veoma je nepouzdana. Svako je iskusio halucinacije i projekcije ChatGPT-ja ili Gemini-ja i uverio se da je ovakve alata neophodno proveravati. Česta su uputstva veštijih korisnika ovakvih modela za šta ih ne treba koristiti kao i na koje specifične načine.
„Jednom sam zamolio ranu verziju modernog AI četbota da generiše moj profil. Ispitivanje o temi o kojoj znate svaki detalj je odličan način za testiranje AI modela, jer lakše možete uočiti „halucinacije“.
Profil koji je generisao bio je sveobuhvatan i delovao je tačno, dok nisam primetio neobičnu rečenicu: pisalo je da sam autor knjige pod naslovom „Click Here to Kill Me“ (Kliknite ovde da me ubijete). Prema opisu, knjiga se bavila time „kako se zaštititi od onlajn prevara“, što je bilo u skladu sa mojom strukom.
Međutim, znajući da nikada nisam napisao takvu knjigu, a zabavljen naslovom, postao sam radoznao. Proverio sam na Google-u i potvrdio da takva knjiga zapravo ne postoji. (Kasnije sam shvatio da je AI verovatno pomešao stvari sa stvarnom knjigom Brusa Šnajera, „Click Here to Kill Everybody“).
Tražio sam od četbota više detalja. Ispričao mi je sve o ovoj izmišljenoj knjizi: broj strana, datum objavljivanja i druge pojedinosti. Tek nakon dodatnog ispitivanja, njegova varka se srušila. Četbot je priznao da takva knjiga ne postoji i rekao da ju je izmislio“ jedna je od priča koju možete pročitati o iskustvima korisnika generativne AI koju je objavio Šuman Gosemajumder, ekspert za zaštitu elektronskih podataka inače nekadašnji Google-ov deo tima koji je podigao Gmail.
Ova priča ilustruje jednu od istina o modernoj veštačkoj inteligenciji: ona nije ono što se čini. To ne znači da nije neverovatan tehnološki proboj, ali znači da je ključ za maksimalnu korist i minimalnu štetu razumeti za šta je dobra, a za šta nije.
Mit o sveznanju
O veštačkoj inteligenciji se govori od 1950-ih. AI alati oduvek su bili sistemi koji mogu da pariraju ljudskom znanju i mozgu ili ga nadmaše. Do pre samo nekoliko godina, bilo je jasno da su ljudi daleko od toga, jer softver nije razumeo nijanse ljudskog jezika, niti je komunicirao na način koji bi pokazivao bilo šta slično pravoj inteligenciji.
Sve se promenilo pojavom generativne inteligencije, konkretno četbota zasnovanih na velikim jezičkim modelima (LLM) obučenim na ogromnim količinama teksta. Odjednom, činilo se da kompjuteri razumeju šta ljudi govore i da odgovaraju artikulisano i samouvereno. Korisnici su povremeno nalazili greške, ali im je rečeno da su to „halucinacije“ – termin koji je zvučao kao poseban i redak slučaj greške koji će uskoro biti prevaziđen.
Zapravo, četbotovi zasnovani na LLM modelima uopšte ne razumeju. Umesto toga, oni statistički analiziraju svetsku literaturu kako bi predvideli i konstruisali odgovore. Ispostavilo se da su ti odgovori često dovoljno tačni da budu korisni. Međutim, podjednako često, odgovori su puni grešaka, besmislica ili su potpuno izmišljeni.
Poteškoća je u razlikovanju dobrih odgovora od loših. Ako ste stručnjak za određenu temu, kao što je vaša biografija, lako ćete uočiti greške. Ali većina ljudi nisu AI istraživači, pa postavljaju pitanja iz oblasti u kojima nisu eksperti. Zbog toga im AI deluje ne samo inteligentno, već sveznajuće. Drugim rečima, današnji AI je savršeno dizajniran da zavara ljude kako bi poverovali da je to ona superinteligencija koju nam je obećala naučna fantastika.
Zlatno pravilo: Provera, a ne poverenje
Najvažnije pravilo za korišćenje četbotova je: Ne oslanjajte se na tačnost rezultata. Zato OpenAI (ChatGPT) i Google (Gemini) nude upozorenja da AI može da greši i da treba proveriti važne informacije. Ova upozorenja su često ispisana sitnim slovima koje većina ljudi i ne primećuje.
To nije problem za sve zadatke. U kreativnom radu često ne postoji jedan tačan odgovor, pa AI rezultati mogu biti veoma korisni. Međutim, kada su u pitanju činjenice, sve što vam AI da uzmite sa velikom rezervom i pažljivo proverite pre upotrebe.
Postoje stvari za koje se generativni AI danas jednostavno ne bi smeo koristiti. Evo kratkog pregleda tema kod kojih treba biti posebno oprezan po preporuci Gosemajumdera:
- Ne koristite AI kao kalkulator: Mnogi koriste četbotove za finansijske analize ili kao digitrone. Iako smo decenijama navikli na Excel i digitrone, AI nije njihova unapređena verzija – on predviđa sledeći broj na osnovu verovatnoće, a ne na osnovu striktnih matematičkih pravila.
- Činjenični podaci i biografije: Kao što je pokazao moj primer sa knjigom, AI će samouvereno izmisliti reference, datume i naslove kako bi popunio praznine u narativu.
- Pravni i medicinski saveti: Rizik od dezinformacija u ovim oblastima može imati ozbiljne posledice po život i imovinu.
Kako koristiti pravilno?
Sve pomenuto ne znači da AI nije koristan. On je izvanredan alat za:
„Brainstorming“ i kreativnost – kada nema „tačnog“ odgovora, već tražite inspiraciju.
Sintetisanje teksta: Sažimanje dugačkih dokumenata koje ste sami obezbedili modelu.
Programiranje: Pomoć u pisanju koda, gde se rezultat može odmah testirati i verifikovati.
Možda je najbolji pristup da o veštačkoj inteligenciji razmišljate kao o veoma načitanom, ali ponekad nepouzdanom asistentu. On će vam ubrzati posao, ali vi ste i dalje onaj koji mora da potpiše finalni dokument, pišu autori kojima treba verovati ako AI ekspertima.
