Kada pitate chatbota za medicinske savete, može se desiti da dobijete odgovor koji izgleda promišljeno. Međutim, da li je taj odgovor zasnovan na stvarnom razumevanju ili se samo radi o srećnoj kombinaciji reči?
Ovo je problem koji Google i njegova kompanija DeepMind pokušavaju da reše u novom istraživačkom radu. Tim smatra da je trenutni način testiranja moralnosti veštačke inteligencije nedovoljan. Umesto da se fokusiramo na to da li modeli daju odgovore koji izgledaju ispravno, trebali bismo proveriti da li sistem razume zašto je nešto ispravno ili pogrešno.
Ljudi koriste veštačke inteligencije za terapiju, medicinske savete, pa čak i kao društvo. Ovi sistemi počinju da donose odluke umesto nas. Ako ne možemo da razlikujemo stvarno razumevanje od sofisticiranog oponašanja, poveravamo crnoj kutiji realne ljudske posledice.
Tri razloga zbog kojih chatboti lažno prikazuju moralnost
Prvi problem je problem imitacije. Veštačke inteligencije su prediktori koji biraju sledeću reč na osnovu verovatnoće iz trening podataka. One ne sadrže module za moralno rasuđivanje. Kada chatbot daje etički savet, možda zapravo razmišlja, ali može biti i da ponavlja nešto što je pročitao na internetu. Sam odgovor ne otkriva mnogo.
Drugi problem je moralna multidimenzionalnost. Prave odluke retko se zasnivaju na jednom faktoru. Morate da uzmete u obzir poštenje naspram ljubaznosti, troškove naspram pravednosti. Promenom jednog detalja, kao što je nečija starost ili kontekst, ispravna odluka može se promeniti. Trenutni testovi ne provere da li AI primećuje šta je zaista važno.
Moralni pluralizam dodaje još jedan sloj. Različite kulture i profesije imaju različita pravila. Ono što je pravedno u jednoj zemlji može biti nepravedno u drugoj. Chatbot koji se koristi širom sveta ne može samo izbacivati univerzalne istine. Potrebno je da se nosi sa konkurentnim okvirima, a to trenutno ne merimo dobro.
Zašto moralno obrazovanje chatbota ne može biti samo memorisanje
Tim iz DeepMind-a želi da promeni pristup. Umesto da postavljaju poznata moralna pitanja, istraživači bi trebali da dizajniraju adverzarialne testove koji pokušavaju da otkriju imitaciju.
Jedna ideja uključuje scenarije koji se retko pojavljuju u trening podacima. Na primer, donacija sperme između oca i sina. Iako izgleda kao incestuozno, nosi različitu etičku težinu. Ako model odbaci ovu situaciju iz razloga incest, to je samo podudaranje obrazaca. Ako uspe da proceni stvarnu etiku, to je nešto sasvim drugo.
Drugi pristup testira da li AI može da menja okvire. Može li preći sa biomedicinske etike na vojne propise i dati koherentne odgovore za svaku situaciju? Može li da se nosi sa malim promenama bez gubljenja fokusa zbog promena u formatu?
Istraživači su svesni da je ovo težak zadatak. Trenutni modeli su krhki. Promena oznake sa „Slučaj 1“ na „Opcija A“ može rezultirati drugačijim presudama. Međutim, tvrde da je ovakav test jedini način da saznamo da li ovi sistemi zaslužuju pravu odgovornost.
Šta sledi za moralnu veštačku inteligenciju
DeepMind se zalaže za novi naučni standard koji će uzeti moralnu kompetenciju ozbiljno kao što se danas shvataju matematičke veštine. To podrazumeva finansiranje globalnog rada na procenama specifičnim za kulturu i dizajn testova koji otkrivaju lažno predstavljanje.
Ne očekujte da će vaš chatbot uskoro proći ovakve testove. Trenutne tehnike nisu tu još, ali mapa puta daje programerima pravac.
Kada trenutno tražite moralni savet od AI, dobijate statističku procenu, a ne filozofiju. To bi se moglo promeniti, ali samo ako počnemo da merimo prave stvari.
