Stručnjak predlaže "preventivne nuklearne udare" za zaustavljanje razvoja umjetne inteligencije - Monitor.hr
05.04.2023. (10:00)

Je li već počeo obračun čovječanstva s umjetnom inteligencijom ili samo bjesni rat neistomišljenika?

Stručnjak predlaže “preventivne nuklearne udare” za zaustavljanje razvoja umjetne inteligencije

The Matrix: The Matrix Revolutions (2003) — 3 Brothers Film

Stručnjak za umjetnu inteligenciju (AI) Eliezer Yudkowsky predložio je preventivne nuklearne napade na tzv. CPU klastere – velike farme kompjutera presudne za funkcioniranje AI rješenja – ako se moratorij na razvoj umjetne inteligencije ne osigura uobičajenim političkim i diplomatskim putem. “Moramo biti sigurni da su savezničke nuklearne zemlje spremne izložiti se određenom riziku nuklearne razmjene ako je to ono što je potrebno za smanjenje rizika od razvoja AI-ja” kaže Yudkowsky. Nije jedini. Veliki broj uglednih znanstvenika-istraživača i poslovnih lidera, među kojima i Elon Musk, već je potpisao otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest mjeseci. Yudkowsky je uvjeren kako je umjetna inteligencija toliko opasna da brzo može uzrokovati kraj čovječanstva, stoga ne treba previše birati sredstva kako bi se zaustavio njezin razvoj. Jutarnji


Slične vijesti