YouTube i Facebook žele stati na kraj kreatorima koji koriste umjetnu inteligenciju i zarađuju na njemu - Monitor.hr
16.07.2025. (13:00)

Prednost ručnom radu

YouTube i Facebook žele stati na kraj kreatorima koji koriste umjetnu inteligenciju i zarađuju na njemu

YouTube je preplavljen neautentičnim sadržajima, koji kompiliraju tuđe radove, a izrađeni su u pravilu uz pomoć alata generativne umjetne inteligencije. Danas je takve video sadržaje lakše izrađivati no što je to ikad bilo, a mnogi su već pronalazili i načine kako ih monetizirati, odnosno kako malo uložiti u stvaranje videa koji će potom moći zarađivati. Ne planiraju ih aktivno uklanjati, ali će ukidanjem monetizacije pokušati demotivirati autore da ih i dalje stvaraju u velikim količinama. S druge strane, u Meti su odlučili od neautentičnog sadržaja “pročistiti” svoj Facebook. Ta društvena mreža također je poznata po beskonačnom dijeljenju “jednih te istih” sadržaja, a u svemu tome originalni se autori izgube i ne mogu doći do ciljane publike. Facebook će tako pojačati mjere za otkrivanje neoriginalnog sadržaja. Bug


Slične vijesti

21.02. (11:00)

Zasad kratki video. Sutra možda i cijeli film

AI uskrsnuo Kralja Conana: fanovski trailer koji izgleda kao najava pravog filma

Fanovi Conana zamislili su kako bi mogao izgledati treći nastavak kultne sage – i uz pomoć naprednih AI alata pretvorili tu ideju u iznenađujuće uvjerljiv filmski trailer. Riječ je o fan-made videu koji koristi umjetnu inteligenciju za stvaranje gotovo pravog kinematografskog doživljaja – mračnog, epskog i nostalgičnog. Iako nije službeni nastavak, trailer pokazuje koliko AI danas može realistično rekonstruirati viziju “Kralja Conana” kakvu su obožavatelji desetljećima priželjkivali.

25.01. (09:00)

Ako izgleda predobro (ili preloše) da bi bilo istinito, onda vjerojatno nije

Kako prepoznati AI fejk fotke i video prije nego što ih podijelite sa svima

Prije nego što krenete u tehničke detalje, stanite i pogledajte fotku kao cjelinu. Zapitajte se: što točno vidite i koju poruku slika pokušava prenijeti? Što je u prvom planu, a što u pozadini? Tko je objavio fotku i imate li razloga vjerovati tom izvoru? Pomognu i dodatne informacije – gdje je objavljena, uz kakav opis i kome je namijenjena. Kritičko razmišljanje često je prvi i najvažniji korak. AI se i dalje često spotiče na sitnicama, posebno na rukama, licima i teksturama. Obratite pažnju na nelogičnosti poput viška prstiju, čudnog broja zuba, neprirodnog stapanja tonova kože ili površina koje izgledaju pretjerano glatko. Kvaliteta AI slika stalno napreduje, ali i dalje se događaju greške. Index

15.01. (21:00)

Gledaš, ali ne prepoznaješ

Ljudi teško razlikuju prava i AI lica, čak i kad misle da mogu

Istraživanje britanskih sveučilišta pokazalo je da ljudi slabo razlikuju stvarna lica od onih generiranih umjetnom inteligencijom (StyleGAN3). Bez obuke, tzv. superprepoznavači lažna lica prepoznali su u 41 % slučajeva, dok su prosječni sudionici postigli tek 31 %, što potvrđuje da su u tom zadatku prirodno uspješniji od drugih. Nakon kratke obuke, uspješnost je porasla na 64 %, odnosno 51 %, pri čemu je obuka jednako pomogla objema skupinama. Rezultati ukazuju na ozbiljne sigurnosne rizike u online provjeri identiteta. Bug

02.01. (21:00)

Brainrot algoritam

YouTube novim korisnicima masovno preporučuje niskokvalitetni AI sadržaj

Istraživanje Kapwinga pokazuje da je među prvih 500 YouTube preporuka novom korisniku čak 21 posto čista „splačina“, a dodatnih 33 posto sadržaj koji potiče tzv. brainrot. Analiza trend-kanala u više zemalja otkrila je stotine kanala temeljenih isključivo na takvom sadržaju, s milijardama pregleda i desecima milijuna dolara prihoda. Problem nije u kreatorima, nego u algoritmima koji favoriziraju jeftin, masovno proizveden AI sadržaj, posebno kod novih korisnika bez povijesti gledanja. Mreža

30.12.2025. (17:00)

Budi originalan, ne koristi AI

Umjetna inteligencija i kreativnost: povratak na poznato

Novo istraživanje objavljeno u časopisu Patterns pokazuje da generativni AI modeli, kada djeluju bez ljudske intervencije, brzo gube kreativnu raznolikost. U eksperimentu “vizualnog pokvarenog telefona”, modeli Stable Diffusion XL i LLaVA nakon niza ponavljanja konvergirali su prema svega dvanaest ponavljajućih tema, bez obzira na početne opise. Istraživači zaključuju da AI ne pokazuje autonomnu kreativnost, već odražava pristranost iz podataka na kojima je trenirana, što vodi kulturnom konformizmu, a ne originalnosti. Bug

28.12.2025. (10:00)

Brainrot internet

AI smeće preplavljuje YouTube: algoritmi guraju niskokvalitetni sadržaj i milijunske zarade

Novo istraživanje pokazuje da više od 20% YouTube preporuka novim korisnicima čini niskokvalitetni AI sadržaj, tzv. “AI slop”, proizveden isključivo radi pregleda i zarade. Takvi kanali godišnje zarađuju oko 117 milijuna dolara i ukupno imaju 63 milijarde pregleda. Posebno su popularni među djecom i u zemljama poput Španjolske, Indije i Egipta. Iza bizarnih videa stoji globalna industrija koja optimizira sadržaj za algoritme, često uz više savjetnika nego stvarne kreativnosti. The Guardian, Index

25.12.2025. (12:00)

I dalje im bježe zakoni fizike

Umjetno generirani video sadržaj postaje sve uvjerljiviji, no postoje znakovi da ga prepoznate

Mnogi od njih izgledaju zapanjujuće stvarno i gotovo su nerazlučivi od stvarnih snimaka. Ipak, postoje tragovi po kojima ih možete prepoznati, pa se ne dajte zavarati. Modeli umjetne inteligencije i dalje imaju problema sa složenim sekvencama pokreta. Stoga obratite pozornost na:

  • neprirodno fleksibilne ruke ili dijelove tijela
  • pokrete koji naglo prestaju ili su trzavi
  • ruke ili lica koja kratko trepere ili se deformiraju
  • ljude koji nakratko nestaju na slici ili nepravilno komuniciraju s objektima.

Pozadine koje ne ostaju stabilne čest su pokazatelj kako iza video uratka stoji umjetna inteligencija. Objekti mijenjaju oblik ili položaj, tekstovi na zidovima postaju hrpa slova ili nisu čitljivi. Izvori svjetlosti također se ponekad mijenjaju na neprirodan način. Neki od znakova su ako koža na licu djeluje preglatko, avalja obratiti pozornost kretanje kose, pogotovo na rubu. Sora2 postavlja animirani vodeni žig u videozapis. No, korisnici ga često uklanjaju, pa imajte to na umu. PC World, tportal

01.12.2025. (14:00)

Kad banana postane oružje masovne dezinformacije

Googleov “Nano Banana Pro” pali alarm: superrealistične AI slike prijete povjerenju u fotografije

Nova verzija Google DeepMindova alata, Nano Banana Pro, izazvala je veliku zabrinutost zbog iznimno realističnih AI-generiranih slika koje mogu otežati razlikovanje lažnih vizuala od stvarnih fotografija. Stručnjaci upozoravaju da bi takva tehnologija mogla potkopati vrijednost fotografskih dokaza i olakšati stvaranje deepfakeova te manipulaciju javnim osobama. Korisnici pozivaju na hitnu regulaciju, dok Google ističe strogu politiku zabrane zloupotrebe i navodi da alat ugrađuje vidljive i nevidljive vodene žigove kako bi se povećala sigurnost. Index