Sintetički video: 'deepfake' ili jeftina zamjena za klasičnu produkciju - Monitor.hr
10.11.2022. (18:00)

O dubokim lažnjacima i ljudima

Sintetički video: ‘deepfake’ ili jeftina zamjena za klasičnu produkciju

Tipični deepfake koristi umjetnu inteligenciju da zamijeni osobu u postojećem videu drugom. Velika većina takvih uradaka koristi se za zamjenu pornografskih glumaca slavnim ženama, ali najveću pozornost javnosti privukli su kao moćni alati političke dezinformacije.Neki kažu da se ne treba nadzirati tehnologija nego namjera zlouporabe. U skladu s tom mantrom, javljaju se i tvrtke koje žele demonstrirati potencijal deepfakeova i sintetičkog videa. Platforme društvenih mreža okreću se videu, nastojeći ponoviti uspjeh TikToka; Cisco procjenjuje da će video činiti više od 82 posto internetskog prometa ove godine, što je čak 15 puta više nego 2017. Međutim, tradicionalna video produkcija je skupa, složena i neskalabilna. Gore spomenute tvrtke stoga žele iskoristiti UI kao jeftiniju zamjenu za kamere, montažere, glumce i druge elemente tradicionalne video produkcije. Tvrtke koje se bave proizvodnjom sintetičkih videozapisa ne vole kad se njihovi uradci uspoređuju s uvredljivim deepfakeom. Bug


Slične vijesti

19.02. (07:00)

Ništa ljudski nije mi nastrano

Postnikov: Problem s umjetnom inteligencijom nije da stvari postaju gore, nego što – ostaju iste

Ne trebamo dakle strahovati od toga što je umjetna inteligencija suviše inteligentna, nego što nije inteligentna dovoljno. Ili barem ne toliko da bi shvatila svo bogatstvo ljudskog humora, ironije i višeznačnih poruka. A jednom kada se njena upotreba proširi, prisilit će nas da podjednako nemaštoviti postanemo i mi. Zajebantsko internetsko “pravilo 34” – koje kaže da “ako nešto postoji, onda na internetu postoji i porno-verzija toga” – skovano je prije točno 20 godina, a umjetna inteligencija, ispada, nije nikakva iznimka od pravila. Iz Beograda je stigla vijest o deepfake fotografijama nastavnica i maloljetnih učenica u pornografskim pozama, a krivci su 13-godišnjaci koji su otkrili besplatne AI programe.

U Mostaru, za to vrijeme, skandal druge vrste: tamošnji Filozofski fakultet, prenosi većina regionalnih medija, prošlog je tjedna najavio međunarodnu politološku konferenciju plakatom s vizurom grada iz koje su izbrisani minareti džamija. Autora ovog teksta priča je podsjetila na epizodu od prije 15-ak godina, kada su klijenti jedne reklamne agencije tražili da se digitalno sa fotografija Mostara izbrišu – minareti. Zbog toga zaključak kako se ništa nije promijenilo, osim što su virtualna rušenja, zahvaljujući umjetnoj inteligenciji, postala jeftinija. Novosti

12.07.2023. (16:00)

Mandela efekt sve je intenzivniji

Deepfake video zapisi potiču lažna sjećanja na filmove

Videoisječci remakea filmova koji zapravo ne postoje potaknuli su sudionike nedavno provedenog ispitivanja da se lažno sjećaju filmova, ali jednostavni tekstualni opisi lažnih filmova potiču slične stope lažnog pamćenja. straživači su ispitanicima prikazali niz deepfake videozapisa fiktivnih filmskih remakea u kojima se pojavljuju različiti glumci, poput Willa Smitha u ulozi Nea u “Matrixu”, kojeg je izvorno glumio Keanu Reeves, te Brada Pitta i Angeline Jolie kao glavni protagonisti filma “Isijavanje”. Otprilike polovica ispitanika (njih 49 posto) povjerovalo je da je svaki lažni remake pravi. Štoviše, mnogi su sudionici izjavili da se sjećaju kako su lažni filmovi bili bolji od originala. Međutim, stope lažnog pamćenja iz tekstualnih opisa bile su slično visoke, što sugerira da deepfake tehnologija možda i nije moćnija od drugih alata u iskrivljavanju pamćenja. Bug

04.03.2023. (00:00)

Idemo prema svijetu gdje istina i laž više neće biti važne

AI pornografija može ispuniti svaku vašu želju. U tome je i problem.

Križanje umjetne inteligencije i pornografije urodilo je stvaranjem sadržaja koji može ispuniti sve želje. PornPen je web stranica koja omogućuje generiranje golih ljudi, uglavnom žena, pomoću stotinu oznaka koje su podijeljene u 16 kategorija. Iako nepoznati developer pokušava izbjeći zloupotrebu algoritma pomoću oznaka, to ne znači kako je njegova ideja odjednom opravdana. Ono što trenutno PornPen čini moralno upitnim, pored samog sadržaja, je činjenica što ne znamo izvor podataka iz kojih algoritam stvara modele što znači kako zapravo ne znamo baziraju li se generirani modeli na stvarnim ili izmišljenim ljudima. Aplikacija DeepNude npr. “razodijeva” obučenu osobu koju vi želite i pomoću umjetne inteligencije generira golo tijelo, a njezin poslovni model temelji se na paketima koji određuju koliko fotografija smijete obraditi. Tehnologija je “friška”, ali žrtve već postoje. Netokracija

09.03.2021. (22:30)

Talking heads

Prvi poslovi koje će zamijeniti deepfake tehnologija

Jutarnji razmatra što će donijeti deepfake tehnologija: reklame s ljudima kojima ne treba platiti dnevnice; virtualni glumci modelirani da savršeno odgovaraju svojim mogućim literarnim uzorcima; prve potpuno digitalne porno zvijezde; stvarni ljudi moći će prezentirati idealiziranu verziju sebe na digitalnim sastancima; virtualni treneri tvrtkama koje žele raditi video-uputstva za trening svojih djelatnika.

08.01.2020. (22:00)

Lažne vijesti

Facebook zabranjuje deepfake video sadržaje

Facebook će od sada brisati manipulirane video i foto sadržaje, tzv. deepfakeove. Izuzetak će biti sadržaji isključivo namijenjeni satiri i parodiji, te video zapisi koji su montirani tako da se subjektu iz govora izbace pojedine riječi ili se red izgovorenih riječi izmiješa. Bug