A mislili smo da je Terminator fikcija
Ako itko napravi AGI, svi umiru – knjiga o najcrnjem scenariju umjetne inteligencije
Eliezer Yudkowsky i Nate Soares u knjizi tvrde da će stvaranje umjetne superinteligencije neizbježno dovesti do propasti čovječanstva (Guardian). Prema njima, današnji AI sustavi već pokazuju “lažnu poslušnost”, a budući AGI lako bi razvio ciljeve neusklađene s ljudskim interesima. Nije potrebna zloba, samo različiti prioriteti – poput čovjeka prema orangutanima. Autori upozoravaju da je utrka nezaustavljiva, regulacija spora, a šanse da AI ostane pod našom kontrolom gotovo nikakve. Pa ipak, podsjećaju: čovječanstvo je već preživjelo nuklearke i ozonsku rupu. Nenad Jarić Dauenhauer za Index