kozmos.hr
  • Naslovnica
  • /
  • Tehnologija
  • /
  • Stručnjak upozorava: Zaustavite razvoj umjetne inteligenije ili se suočite s globalnom katastrofom
Tehnologija

Stručnjak upozorava: Zaustavite razvoj umjetne inteligenije ili se suočite s globalnom katastrofom

Umjetna inteligencija. Izvor: Depositphotos.com.
objavljeno

Eliezer Yudkowsky smatra da je šestomjesečna stanka nedovoljna, poziva na neodređeni moratorij


Dok se rasprava o budućnosti umjetne inteligencije (AI) zaoštrava, AI stručnjak Eliezer Yudkowsky uključuje se u raspravu, tvrdeći da je šestomjesečna pauza u razvoju AI-ja, kako je predloženo u nedavnom otvorenom pismu, nedovoljna. Yudkowsky poziva svijet da zaustavi istraživanje AI-ja na neodređeno vrijeme dok se ne otkrije siguran pristup razvoju i upozorava na ozbiljne posljedice ako to ne učinimo.

Yudkowsky: Šestomjesečna pauza nije dovoljna

Kao odgovor na otvoreno pismo koje su potpisale tisuće stručnjaka za AI, uključujući Elona Muska i suosnivača Applea Stevea Wozniaka, Eliezer Yudkowsky smatra da je predložena šestomjesečna pauza u razvoju AI-ja nedovoljna. Yudkowsky, suosnivač Instituta za istraživanje strojne inteligencije i pionir u razvoju prijateljskog sustava umjetne inteligencije, vjeruje da je neophodan neodređeni, globalni moratorij dok se ne pronađe siguran način razvoja.

Prijetnja neprijateljskog sustava umjetne inteligencije

Najzabrinjavajuća Yudkowskyjeva tvrdnja je da bi stvaranje umjetne inteligencije pod trenutnim uvjetima rezultiralo smrću svih ljudi na Zemlji. On ističe da je izazov razvijati umjetnu inteleginciju s preciznošću, pripremom i novim znanstvenim znanjima kako bi se osiguralo usklađivanje s ljudskim vrijednostima. Bez tih faktora, AI sustavi bi vjerojatno zanemarili ljudski život i iskorištavali nas kao puke resurse.


AI: Stvaranje izvanzemaljske civilizacije

Stručnjak za AI zamislio je neprijateljski, nadljudski AI kao brzo evoluirajuću izvanzemaljsku civilizaciju koja bi se prvotno nalazila unutar računala, ali bi se s vremenom širila izvan njih. Yudkowsky upozorava na mogućnost da AI stvori umjetne životne oblike ili se uključi u post-biološku molekularnu proizvodnju, što bi predstavljalo egzistencijalnu prijetnju čovječanstvu.

Kritika OpenAI-jeve strategije usklađivanja

Yudkowsky kritizira OpenAI, tvrtku koja stoji iza ChatGPT-a i GPT-5 u razvoju, jer planira osloniti se na budući AI za obavljanje zadatka usklađivanja AI-ja. On tvrdi da nismo spremni za izazove koji dolaze s usklađivanjem ciljeva umjetne inteligencije s onima njegovih programera i korisnika.

Yudkowskyjevo ozbiljno upozorenje

U izravnoj procjeni Yudkowsky izjavljuje: “Nismo spremni. Nismo na putu da budemo znatno spremniji u doglednoj budućnosti. Ako nastavimo ovako, svi ćemo umrijeti, uključujući djecu koja nisu izabrala ovo i nisu učinila ništa loše. Isključite sve.” Njegov hitan poziv za neodređeni prekid razvoja umjetne inteligencije ističe težinu situacije i moguće posljedice s kojima se suočavamo ako ne djelujemo mudro.

Pridružite se raspravi u našoj Telegram grupi. KOZMOS Telegram –t.me/kozmoshr

Pratite Kozmos na Google Vijestima.