Nova istraživanja sugerišu da veštačka inteligencija možda previše optimistično gleda na ljudsku racionalnost. Naučnici su otkrili da popularni AI modeli, kao što su OpenAI-ov ChatGPT i Claude, često pretpostavljaju da su ljudi logičniji i racionalniji nego što to zaista jesu, posebno u situacijama strateškog razmišljanja.
Ova razlika između očekivanja AI i stvarnog ljudskog ponašanja može imati posledice na to kako ovi sistemi predviđaju ljudske odluke u ekonomiji i drugim oblastima.
Testiranje AI u odnosu na ljudsko razmišljanje
Naučnici su testirali AI modele uključujući ChatGPT-4o i Claude-Sonnet-4 u klasičnom okviru teorije igara poznatom kao Keynesijev lepotan. Razumevanje ove igre pomaže objašnjenju važnosti nalaza (prema TechXplore).
U lepotanskoj igri, učesnici moraju da prognoziraju šta će drugi izabrati kako bi pobedili, a ne samo da biraju ono što lično preferiraju. Racionalno igranje podrazumeva nadmašivanje prvih utisaka i stvarno razmišljanje o razmišljanju drugih, što je dubok nivo strateškog razmišljanja s kojim se ljudi često bore.
Da bi videli kako se AI modeli snalaze, istraživači su ih stavili u verziju ove igre zvanu „Pogodi broj“, gde svaki igrač bira broj između nule i sto. Pobednik je onaj čija je odluka najbliža polovini prosečne odluke svih igrača.
AI modeli su dobili opise svojih ljudskih protivnika, od studenata prve godine do iskusnih teoretičara igara, i traženo je od njih ne samo da izaberu broj, već i da objasne svoje razmišljanje.
Modeli su prilagodili svoje izbore na osnovu toga koga su smatrali svojim protivnikom, što pokazuje određeno strateško razmišljanje. Međutim, oni su dosledno pretpostavljali nivo logičkog razmišljanja kod ljudi koji većina stvarnih igrača zapravo ne poseduje, često „igrajući previše pametno“ i promašujući cilj kao rezultat.
Dok je studija takođe pokazala da ovi sistemi mogu prilagoditi izbore na osnovu karakteristika kao što su starost ili iskustvo, i dalje su se borili da identifikuju dominantne strategije koje ljudi mogu koristiti u dvobojnim igrama. Istraživači tvrde da to ističe stalni izazov kalibracije AI prema stvarnom ljudskom ponašanju, posebno za zadatke koji zahtevaju predviđanje odluka drugih ljudi.
Ovi nalazi takođe odražavaju šire zabrinutosti oko današnjih chatbota, uključujući istraživanja koja pokazuju da čak i najbolji AI sistemi imaju tačnost od samo 69%, kao i upozorenja stručnjaka da AI modeli mogu verno oponašati ljudsku ličnost, što izaziva zabrinutost zbog manipulacije. Kako se AI i dalje koristi u ekonomskom modeliranju i drugim složenim domenima, razumevanje gde se njihova pretpostavka razlikuje od ljudske stvarnosti biće ključno.
