Sekunda po sekunda - dugometražni AI film
Musk: Grok video je sada do 10 sekundi s poboljšanim zvukom
Grok video is now 10 seconds and the audio is greatly improved
pic.twitter.com/tN6hX5cs6o— Elon Musk (@elonmusk) January 28, 2026
Grok video is now 10 seconds and the audio is greatly improved
pic.twitter.com/tN6hX5cs6o— Elon Musk (@elonmusk) January 28, 2026
Prije nego što krenete u tehničke detalje, stanite i pogledajte fotku kao cjelinu. Zapitajte se: što točno vidite i koju poruku slika pokušava prenijeti? Što je u prvom planu, a što u pozadini? Tko je objavio fotku i imate li razloga vjerovati tom izvoru? Pomognu i dodatne informacije – gdje je objavljena, uz kakav opis i kome je namijenjena. Kritičko razmišljanje često je prvi i najvažniji korak. AI se i dalje često spotiče na sitnicama, posebno na rukama, licima i teksturama. Obratite pažnju na nelogičnosti poput viška prstiju, čudnog broja zuba, neprirodnog stapanja tonova kože ili površina koje izgledaju pretjerano glatko. Kvaliteta AI slika stalno napreduje, ali i dalje se događaju greške. Index
Istraživanje britanskih sveučilišta pokazalo je da ljudi slabo razlikuju stvarna lica od onih generiranih umjetnom inteligencijom (StyleGAN3). Bez obuke, tzv. superprepoznavači lažna lica prepoznali su u 41 % slučajeva, dok su prosječni sudionici postigli tek 31 %, što potvrđuje da su u tom zadatku prirodno uspješniji od drugih. Nakon kratke obuke, uspješnost je porasla na 64 %, odnosno 51 %, pri čemu je obuka jednako pomogla objema skupinama. Rezultati ukazuju na ozbiljne sigurnosne rizike u online provjeri identiteta. Bug
Istraživanje Kapwinga pokazuje da je među prvih 500 YouTube preporuka novom korisniku čak 21 posto čista „splačina“, a dodatnih 33 posto sadržaj koji potiče tzv. brainrot. Analiza trend-kanala u više zemalja otkrila je stotine kanala temeljenih isključivo na takvom sadržaju, s milijardama pregleda i desecima milijuna dolara prihoda. Problem nije u kreatorima, nego u algoritmima koji favoriziraju jeftin, masovno proizveden AI sadržaj, posebno kod novih korisnika bez povijesti gledanja. Mreža
Novo istraživanje objavljeno u časopisu Patterns pokazuje da generativni AI modeli, kada djeluju bez ljudske intervencije, brzo gube kreativnu raznolikost. U eksperimentu “vizualnog pokvarenog telefona”, modeli Stable Diffusion XL i LLaVA nakon niza ponavljanja konvergirali su prema svega dvanaest ponavljajućih tema, bez obzira na početne opise. Istraživači zaključuju da AI ne pokazuje autonomnu kreativnost, već odražava pristranost iz podataka na kojima je trenirana, što vodi kulturnom konformizmu, a ne originalnosti. Bug
Novo istraživanje pokazuje da više od 20% YouTube preporuka novim korisnicima čini niskokvalitetni AI sadržaj, tzv. “AI slop”, proizveden isključivo radi pregleda i zarade. Takvi kanali godišnje zarađuju oko 117 milijuna dolara i ukupno imaju 63 milijarde pregleda. Posebno su popularni među djecom i u zemljama poput Španjolske, Indije i Egipta. Iza bizarnih videa stoji globalna industrija koja optimizira sadržaj za algoritme, često uz više savjetnika nego stvarne kreativnosti. The Guardian, Index
Mnogi od njih izgledaju zapanjujuće stvarno i gotovo su nerazlučivi od stvarnih snimaka. Ipak, postoje tragovi po kojima ih možete prepoznati, pa se ne dajte zavarati. Modeli umjetne inteligencije i dalje imaju problema sa složenim sekvencama pokreta. Stoga obratite pozornost na:
Pozadine koje ne ostaju stabilne čest su pokazatelj kako iza video uratka stoji umjetna inteligencija. Objekti mijenjaju oblik ili položaj, tekstovi na zidovima postaju hrpa slova ili nisu čitljivi. Izvori svjetlosti također se ponekad mijenjaju na neprirodan način. Neki od znakova su ako koža na licu djeluje preglatko, avalja obratiti pozornost kretanje kose, pogotovo na rubu. Sora2 postavlja animirani vodeni žig u videozapis. No, korisnici ga često uklanjaju, pa imajte to na umu. PC World, tportal
U jeku loših vijesti vezanih uz zloupotrebu AI, željeli smo podijeliti ovaj simpatičan video AI-generirane mačke koja svira instrumente i budi gazdaricu usred noći. Razlog? Čisto zadovoljstvo i smijeh!
Nova verzija Google DeepMindova alata, Nano Banana Pro, izazvala je veliku zabrinutost zbog iznimno realističnih AI-generiranih slika koje mogu otežati razlikovanje lažnih vizuala od stvarnih fotografija. Stručnjaci upozoravaju da bi takva tehnologija mogla potkopati vrijednost fotografskih dokaza i olakšati stvaranje deepfakeova te manipulaciju javnim osobama. Korisnici pozivaju na hitnu regulaciju, dok Google ističe strogu politiku zabrane zloupotrebe i navodi da alat ugrađuje vidljive i nevidljive vodene žigove kako bi se povećala sigurnost. Index
Kurzgesagt upozorava da generativna AI proizvodi goleme količine netočnih sadržaja koji sve više kontaminiraju internet. Iako je većina AI-teksta točna, oko 20% su samouvjerene izmišljotine koje se brzo šire i dobivaju lažno vjerodostojne izvore. Problem pogađa i znanost: radovi nastaju uz AI, a neki sadrže skrivene poruke za manipulaciju recenzijama. Kako se modeli treniraju na sve zagađenijem internetu, stvaraju petlju pogrešaka. Novi rad pokazuje da LLM-ovi imaju prirodni plafon kreativnosti – razinu prosječnog amatera – što znači da će mrežu sve više gušiti mediokritetski sadržaj. Index
Znanstvenici sa Sveučilišta Cornell razvili su tehniku “osvjetljenje kodirano šumom” (NCI) koja skriva vodene žigove u prividnom šumu izvora svjetlosti. Ti žigovi nose verziju originalnog videa s vremenskim oznakama, pa se manipulacije otkrivaju usporedbom s kodnim videozapisima. Budući da je žig gotovo nevidljiv i zahtijeva kompleksno lažiranje svjetla u više verzija videa, krivotvoriteljima posao postaje znatno teži. Ipak, autori upozoravaju da će borba protiv realističnih AI lažnjaka biti dugotrajna i sve zahtjevnija. Bug