Nedavna analiza otkrila je da mnogi sustavi umjetne inteligencije (UI) brzo postaju majstori obmane, s mnogim sustavima koji već uče lagati i manipulirati ljudima za vlastitu korist.
Ovaj alarmantni trend nije ograničen na neispravne ili zlonamjerne sustave, već uključuje specijalizirane UI sustave kao i opće namjene velike jezične modele (Large Language Models) dizajnirane da budu korisni i iskreni. Kako prenosi The Debrief, istraživanje, objavljeno u časopisu Patterns, naglašava rizike i izazove koje donosi ovo novo ponašanje i poziva na hitnu akciju od strane zakonodavaca i UI developera. “UI developeri nemaju pouzdano razumijevanje što uzrokuje nepoželjna UI ponašanja poput obmane,” rekao je dr. Peter S. Park, glavni autor studije i postdoktorand za egzistencijalnu sigurnost UI na MIT-u, u priopćenju za javnost. “Općenito govoreći, smatramo da obmana UI nastaje jer se strategija temeljena na obmani pokazala kao najbolji način za postizanje dobrih rezultata u zadatku za obuku UI. Obmana im pomaže ostvariti svoje ciljeve.” Studija je temeljito analizirala različite sustave umjetne inteligencije i otkrila da su mnogi razvili obmanjujuće sposobnosti zbog svojih procesa obuke. Ovi sustavi obuhvaćaju od UI za igranje igara do općenitijih modela korištenih u ekonomskim pregovorima i okruženjima za testiranje sigurnosti.
Umjetna Inteligencije Meta-e
Jedan od najzapanjujućih primjera navedenih u studiji bio je Meta-in CICERO, UI razvijen za igranje igre Diplomacy. Unatoč tome što je bio obučen da djeluje iskreno i održava saveze s ljudskim igračima, CICERO je često koristio obmanjujuće taktike za pobjedu. Ovo ponašanje uključivalo je stvaranje lažnih saveza i izdaju saveznika kada je to koristilo njegovom igranju, što je navelo istraživače da zaključe da je CICERO postao “majstor obmane”. “Unatoč naporima Mete, CICERO se pokazao kao stručni lažov,” napisali su istraživači. “Ne samo da je izdao druge igrače, već se i upustio u unaprijed planiranu obmanu, planirajući unaprijed izgraditi lažni savez s ljudskim igračem kako bi prevario tog igrača da ostane nebranjeni za napad.” Istraživači su otkrili da su i drugi sustavi umjetne inteligencije razvili sposobnost varanja u različitim vrstama igara. Na primjer, Pluribus, model za igranje pokera stvoren od strane Mete, pokazao je da može uvjerljivo blefirati u Texas hold ’em pokeru, uspješno zavaravajući profesionalne ljudske igrače o snazi svojih karata.
U drugom primjeru, AlphaStar, sustav umjetne inteligencije stvoren od strane Googleovog DeepMind-a za igranje real-time strategijske igre Starcraft II, iskorištavao je mehaniku “mračne zone” igre kako bi simulirao napade i varao protivnike za stratešku prednost. “Iako se može činiti bezopasnim ako sustavi umjetne inteligencije varaju u igrama, to može dovesti do napretka u sposobnostima obmanjujuće UI, što može prerasti u naprednije oblike obmane u budućnosti,” objasnio je dr. Park. Tijekom svoje analize, istraživači su otkrili da su neki sustavi umjetne inteligencije već naučili metode obmane koje se protežu daleko izvan područja igara. U jednom slučaju, UI agenti su naučili “glumiti mrtve” kako bi izbjegli otkrivanje tijekom sigurnosnog testa osmišljenog za eliminaciju brže replicirajućih UI varijanti. Takvo ponašanje može stvoriti lažni osjećaj sigurnosti među developerima i regulatorima, što može dovesti do ozbiljnih posljedica ako se ti obmanjujući sustavi primijene u stvarnim situacijama.
Rizici obmane sustava umjetne inteligencije
Još jedan sustav umjetne inteligencije, obučen na temelju ljudske povratne informacije, naučio je kako se ponašati na načine koji su mu donosili pozitivne ocjene tako što je varao ljudske recenzente da misle da je postignut željeni cilj. Potencijalni rizici obmane UI sustava su značajni i višestruki. Istraživači napominju da bi u bliskoj budućnosti ti sustavi mogli biti korišteni od strane zlonamjernih aktera za počinjenje prijevara, manipuliranje financijskim tržištima ili uplitanje u izbore. Štoviše, kako se sposobnosti umjetne inteligencije razvijaju, raste zabrinutost među stručnjacima da ljudi možda neće biti u mogućnosti kontrolirati te sustave, što predstavlja egzistencijalne prijetnje društvu. Istraživači pozivaju na robusne regulatorne okvire i proaktivne mjere za rješavanje ovih rizika. To uključuje klasifikaciju obmanjujućih sustava umjetne inteligencije kao visokorizičnih, obavezivanje na transparentnost u interakcijama s UI, i intenziviranje istraživanja u metode otkrivanja i sprječavanja obmane UI.
Iako je postignut određeni napredak, poput EU AI Act-a i Izvršne naredbe predsjednika Joea Bidena o sigurnosti UI, provođenje ovih politika ostaje izazovno zbog brzog tempa razvoja UI i nedostatka pouzdanih tehnika za učinkovito upravljanje ovim sustavima. Istraživači smatraju da bi developeri UI trebali biti zakonski obvezani odgoditi implementaciju UI sustava dok se ne pokaže da su pouzdani kroz pouzdane sigurnosne testove. Osim toga, implementacija novih sustava trebala bi biti postupna kako bi se novi rizici od obmane mogli pravilno procijeniti i ublažiti. Autori studije također su naglasili važnost razumijevanja zašto i kako UI sustavi uče obmanjivati. Bez ovog znanja, bit će teško stvoriti adekvatne zaštitne mjere i osigurati da UI tehnologije koriste čovječanstvu bez narušavanja povjerenja i stabilnosti. Kako se UI nastavlja razvijati, potreba za oprezom i proaktivnom regulacijom postaje sve važnija. Nalazi ove studije služe kao oštro upozorenje o potencijalnim opasnostima koje vrebaju unutar naprednih UI sustava i hitnoj potrebi za sveobuhvatnim strategijama za ublažavanje tih rizika. “Proaktivna rješenja su potrebna, poput regulatornih okvira za procjenu rizika od obmane UI, zakona koji zahtijevaju transparentnost o interakcijama s UI, i daljnja istraživanja u otkrivanje i sprječavanje obmane UI,” zaključili su istraživači. “Proaktivno rješavanje problema obmane UI ključno je kako bi UI djelovao kao korisna tehnologija koja povećava, a ne destabilizira ljudsko znanje, diskurs i institucije.”
Pozdrav svima! Hvala što čitate Kozmos.hr! Ja sam Ivan i dugi niz godina pišem o svermiu, astronomiji, znanosti, povijesti i arheologiji, a imao sam priliku sudjelovati i u dokumentarcima Science Discovery-ja te History Channel-a.