kozmos.hr
  • Naslovnica
  • /
  • Tehnologija
  • /
  • Znanstvena studija razbija mit o umjetnoj inteligenciji: Veliki jezični modeli ne mogu postati prijetnja
Tehnologija

Znanstvena studija razbija mit o umjetnoj inteligenciji: Veliki jezični modeli ne mogu postati prijetnja

Znanstvena studija razbija mit o umjetnoj inteligenciji Veliki jezični modeli ne mogu postati prijetnja
objavljeno

Strahovi vezani uz umjetnu inteligenciju, potaknuti kultnim filmovima i knjigama znanstvene fantastike, duboko su ukorijenjeni u kolektivnoj svijesti. Svi smo čuli za HAL-9000, Skynet, ili Matrix – umjetne inteligencije koje se okreću protiv svojih tvoraca. No, kako se tehnologija razvija, postavlja se ključno pitanje: mogu li današnji sofisticirani AI modeli, poput ChatGPT-a, zaista izmaknuti kontroli i postati prijetnja čovječanstvu?

Novo istraživanje koje su proveli znanstvenici Iryna Gurevych s Tehničkog sveučilišta u Darmstadtu u Njemačkoj i Harish Tayyar Madabushi sa Sveučilišta u Bathu u Ujedinjenom Kraljevstvu donosi umirujuće odgovore. Prema njihovim nalazima, veliki jezični modeli (VJM) umjetne inteligencije, koliko god bili sofisticirani, ne mogu djelovati izvan okvira svog programiranja. Drugim riječima, nemaju sposobnost postati autonomne prijetnje.

Ograničenja velikih jezičnih modela: Zašto ne mogu postati opasni

Iako su VJM-ovi dizajnirani da razumiju i generiraju tekst na načine koji se čine iznenađujuće ljudskima, njihove mogućnosti su striktno ograničene. Kako ističe Tayyar Madabushi, “Strah je bio da će sve veći modeli moći rješavati probleme koje trenutno ne možemo predvidjeti, što bi moglo dovesti do razvoja opasnih sposobnosti poput rasuđivanja i planiranja.” Međutim, rezultati istraživanja pokazuju da je ovaj strah neutemeljen.


Istraživački tim testirao je četiri različita VJM-a, stavljajući pred njih zadatke koji su se prethodno smatrali “emergentnim” – odnosno zadatke koje modeli nisu bili izričito trenirani da riješe. Nisu pronašli dokaze da su modeli razvili sposobnost nepredviđenog ili inovativnog razmišljanja izvan onoga za što su programirani.

Veliki jezični modeli nisu savršeni, ali nisu ni prijetnja

Unatoč impresivnim mogućnostima, VJM-ovi i dalje nisu prava inteligencija. Nedostaju im ključne sposobnosti poput razlikovanja točnih informacija od netočnih, što može dovesti do širenja pogrešnih informacija. No, iako mogu pogriješiti, jasno je da nisu sposobni djelovati izvan granica svog programiranja. Ljudi, međutim, predstavljaju pravu prijetnju. S rastom primjene umjetne inteligencije, pojavljuju se izazovi kao što su povećana potrošnja energije, etička pitanja poput kršenja autorskih prava i povjerenja u digitalni sadržaj, te problem tzv. digitalnog zagađenja. Upravo ovdje leži prava opasnost.

Iryna Gurevych naglašava: “Naši rezultati ne znače da umjetna inteligencija uopće nije prijetnja. Umjesto toga, pokazujemo da strah od emergentnih sposobnosti koje bi mogle dovesti do specifičnih prijetnji nije podržan dokazima. Kontrola nad procesom učenja VJM-ova ostaje čvrsto u našim rukama.”

Buduća istraživanja, smatraju znanstvenici, trebala bi se usredotočiti na stvarne rizike koje VJM-ovi mogu predstavljati, poput njihove potencijalne upotrebe za generiranje lažnih vijesti ili drugih oblika dezinformacija. Ova studija predstavlja važan korak prema razumijevanju stvarnih sposobnosti i ograničenja velikih jezičnih modela, a rezultati su objavljeni u zborniku radova s 62. godišnjeg sastanka Udruženja za računalnu lingvistiku. Ključna poruka ove studije je jasna: dok su veliki jezični modeli korisni alati, njihov razvoj treba pratiti s pažnjom, ali bez pretjeranih strahova od autonomne prijetnje. Prava odgovornost i dalje ostaje na ljudima.

Pozdrav svima! Hvala što čitate Kozmos.hr! Ja sam Ivan i dugi niz godina pišem o svermiu, astronomiji, znanosti, povijesti i arheologiji, a imao sam priliku sudjelovati i u dokumentarcima Science Discovery-ja te History Channel-a.


Pratite Kozmos na Google Vijestima.