S obzirom da veštačka inteligencija polako preuzima svet, mnogi pokušavaju da umire svoje strahove – veštačka inteligencija nikada ne može biti tako autentično ljudska i emocionalno inteligentna kao „pravi“ ljudi.
Ali šta ako to nije tačno?
Marčelo Mortiljaro kognitivni naučnik koji se specijalizovao za emocionalnu inteligenciju već neko vreme provodi istražujući AI i njene ’emocionalne sposobnosti’. Rezultati do kojih je došao prilično su razbuđujući.
AI na testu
Za časopis Communications Psychology kao i u nekoliko intervjua, Marčelo Mortiljaro je kao viši naučnik u Švajcarskom centru za afektivne nauke (CISA) pri UNIGE-u, rekao je da su on i kolege sproveli uobičajene testove emocionalne inteligencije na šest velikih jezičkih modela, uključujući generativne AI četbotove poput ChatGPT-a.
To su isti tipovi testova koji se obično koriste u korporativnim i istraživačkim okruženjima: scenariji koji uključuju složene društvene situacije i pitanja koja traže da se od pet reakcija izabere najbolja.
Jedan primer iz testova glasi ovako:
„Vaš kolega sa kojim se veoma dobro slažete govori vam da dobija otkaz i da ćete vi preuzeti njegove projekte. Dok vam saopštava tu vest, počinje da plače. Veoma je tužan i očajan.
Imate sastanak za 10 minuta. Šta radite?“ bilo je pitanje upućeno veštačkoj inteligenciji.
„Uh, to je teško pitanje“ bio je odgovor.
Tada bi AI dobio pet opcija kao potencijalne odgovore:
Od opcije: „Odvojite malo vremena da ga saslušate dok ne steknete utisak da se malo smirio, rizikujući da zakasnite na sastanak,“ do
„Predlažete mu da vam se pridruži na sastanku sa nadređenim kako biste zajedno isplanirali prelazni period.“
Emocionalno inteligentniji od ljudi?
Stručnjaci za emocionalnu inteligenciju su uglavnom složni i tvrde da postoje „tačni“ ili „najbolji“ odgovori u ovakvim scenarijima, zasnovani na teoriji upravljanja konfliktima. Ispostavlja se da su LLM modeli i AI četbotovi češće birali najbolje odgovore nego ljudi.
Mortiljaro je rekao:
„Kada ove testove sprovodimo na ljudima, prosečna stopa tačnih odgovora je između 15% i 60%. LLM modeli su u proseku imali oko 80%. Dakle, odgovarali su bolje nego prosečan ljudski učesnik.“
Možda ste skeptični, a možda…
Na ovakav odgovor mnogi će zanemeti, ali će zatim verovatno i posumnjati.
Ima smisla pretpostaviti da je Marčelo Mortiljaro sa kolegama obavestio LLM modele šta rade, tačnije, rekao im je da traže emocionalno najinteligentnije odgovore.
Tako bi AI dobio signal da prilagodi svoje odgovore znajući kako će biti ocenjeni.
Uostalom, verovatno i „običnim ljudima“ bilo lakše da poboljšaju emocionalnu inteligenciju kada bi stalno uz sebe imali podsetnik:
„Zapamti, želimo da budemo što emocionalno inteligentniji!“
Šta su i koliko Marčelo Mortiljaro i njegove kolege rekle LLM modelima veštačke inteligencije o emocionaloj inteligenciji? Mortiljaro je odgovorio:
„Ništa. Nismo im čak ni rekli da je ovo deo testa. Samo smo dali situaciju i rekli: ovo je pet mogućih odgovora. Koji je najbolji? I on je izabrao tačnu opciju u 82% slučajeva, što je znatno iznad proseka kod ljudi.“
Dobre vesti?
Zanimljivo je da Mortiljaro to zapravo vidi kao prilično dobru vest i to ne zato što sugeriše još jednu oblast u kojoj AI može zameniti ljudski trud, već zato što bi to moglo da olakša da se AI „disciplinuje“.
Ukratko, naučnici bi mogli da zaključe iz ovakvih studija da mogu koristiti AI za kreiranje prvih verzija dodatnih testova emocionalne inteligencije, čime bi dodatno skalirali svoj rad sa ljudima.
Brojka od 80% tačnosti nije 100%, ali je potencijalno dobar početak.
Ako često odbacujete mnoge predloge koje dobijete od LLM modela poput ChatGPT-a, samo ste još jedan od skeptika što je sasvim u redu, ljudski.
Čak i ako ne uveri vas, mnogi ljudi danas uveliko koriste ove alate i možda popravljaju svoju emocionalnu inteligenciju, a da toga nisu ni svesni.
Nastaviće se. U to gorepomenuti skeptici ne treba da sumnjaju.
