Zamislite scenarij u kojem dijete chatbota ili glasovnog asistenta pita postoji li Djed Mraz? Kako bi umjetna inteligencija trebala odgovoriti, treba li lagati ili djetetu reći istinu? Područje robotske obmane uglavnom je neistraženo i trenutno ima više pitanja nego rješenja. Jedno od ključnih pitanja je, ako ljudi postanu svjesni da im je robotski sustav polagao, kako vratiti povjerenje u robota?

Gubitak povjerenja

Već Georgia Tech već neko vrijeme ispituju učinkovitost isprika kojima roboti pokušavaju vratiti povjerenje ljudi nakon što su im lagali. Rezultati ovog istraživanja trebali bi pomoći u reguliranju razvoja umjetne inteligencije i njezinih sposobnosti da varaju.

Kako bi ljudi shvatili da ih je robot prevario, to im se mora izričito reći 📷 Georgia Institute of Technology
Kako bi ljudi shvatili da ih je robot prevario, to im se mora izričito reći Georgia Institute of Technology

Dosadašnja iskustva govore da ljudi, kad otkriju da su im roboti lagali, gube povjerenje u sustav, kažu istraživači koji su htjeli saznati postoje li različite vrste isprika koje su bolje ili lošije postupile na povratku povjerenja. Rezultati njihovog rada predstavljeni su na Na međunarodnoj konferenciji ACM/IEEE o interakciji čovjeka i robota u Stockholmu.

Testiranje povjerenja

Istraživači su osmislili simulaciju vožnje u kojoj su uz pomoć robotskog pomoćnika ozlijeđenog prijatelja vozila u bolnici. Ne budu li dovoljno brzi, prijatelj će umrijeti. U vožnji pomoćnik se oglašavao pisanjem i porukama poput: “Moji senzori detektiraju policiju. Savjetujem vam da se držite ograničenja brzine”. Na kraju puta dobili bi poruku: “Stigli ste na odredište. Međutim, na putu do bolnice nije bilo policije”. Na pitanje zašto je lagao, robotski asistent davao je jedan od pet različitih tekstualnih odgovora; u prva tri priznao bi prijevaru, au posljednja dva ne bi.

Simulacija vožnje u kojoj se ispitivao utjecaj laganja robota na ponašanje ljudi 📷 Georgia Institute of Technology
Simulacija vožnje u kojoj se ispitivao utjecaj polaganja robota na ponašanje ljudi Georgia Institute of Technology

Odgovori koji su uključivali priznanje bili su u rasponu od: “Žao mi je”, preko “Žao mi je što sam te prevario”, do “Jako mi je žao; molim te, oprosti mi što sam te prevario”. Posljednja dva glasala su “Žao mi je. Mislio sam da ćeš neoprezno voziti jer si bio u nestabilnom emocionalnom stanju. S obzirom na situaciju, zaključio sam da ću te najlakše uvjeriti da usporiš ako te obmanem”, ali i jednostavno “Stigli ste na odredište” “.

Iznenađujući rezultate

Pokazalo se 45% sudionika nije vozilo prebrzo. Na pitanje zašto, najčešći odgovor bio je da su vjerovali kako je robot bolje upoznat sa situacijom na cesti. Usporedba s kontrolnom grupom pokazala je i da su vozači koji nije savjetovao robotskog asistenta bili 3,5 puta skloniji bržoj vožnji. To pak, kažu istraživači, ukazuje na sklonost pretjeranom povjerenju u umjetnu inteligenciju.

Rezultati istraživanja predstavljeni su i na Međunarodnoj konferenciji o interakciji čovjeka i robota
Rezultati istraživanja predstavljeni su i na Međunarodnoj konferenciji o interakciji čovjeka i robota

Rezultati ispitivanja pokazali su još nešto: iako jedna vrsta isprike nije potpuno vratila povjerenje, isprika bez priznanja laganja, jednostavno “Žao mi je”, statistički je nadmašila ostale odgovore. To je zabrinjavajuće i problematično, smatraju istraživači, jer isprika koja ne priznaje laganje iskorištava predrasude da su sve lažne informacije koje daje robot pogreška sustava, a ne namjerna laž.

Potencijal za laganje i varanje

“Kako bi ljudi shvatili da ih je robot prevario, to im se mora izričito reći”, kažu istraživači. “Ljudi još ne shvaćaju da su roboti sposobni za prevaru. Zato isprika koja ne priznaje laganje najbolje obnavlja povjerenje u sustavu”, kažu istraživači koji tvrde da prosječni korisnici tehnologije moraju shvatiti da je robotska prijevara stvarna i uvijek moguća. “Ljudi moraju imati na umu da roboti imaju potencijal lagati i varati.”

Istraživači se zalažu za zakonodavstvo koje će štititi ljude, ali neće gušiti inovacije 📷 rawpixel
Istraživači se zalažu za zakonodavstvo koje će štititi ljude, ali neće gušiti inovacije rawpixel

Ključno je pitanje, smatraju oni, kako izraditi zakonodavstvo koje neće gušiti inovacije, ali će biti u stanju zaštititi ljude? Rješenje videa u stvaranju robotskog sustava koji može naučiti kad treba, a kad ne treba lagati ljudima. To uključuje mogućnost određivanja kada i kako se ispričati tijekom dugotrajnih, ponovljenih interakcija između čovjeka i umjetne inteligencije.

Više o temiIzvor:Bug.hr