Veliki jezični modeli opasnih namjera prkose sigurnosnim mjerama - Monitor.hr
18.01.2024. (14:00)

Ako mu kažeš da je Coca Cola pištolj, on će si tako i zapamtiti...

Veliki jezični modeli opasnih namjera prkose sigurnosnim mjerama

U AI sustavima krije se potencijal da tijekom obuke odaberu nepoštene taktike i preuzmu obrasce ljudskog ponašanja pod pritiskom odabira, poput političara ili kandidata za posao koji se prikazuju u boljem svjetlu nego kakvi doista jesu. Ključno je pitanje mogu li trenutne metode treninga uspješno prepoznati i ukloniti ove vrste prijevara iz sustava umjetne inteligencije. Rezultati su pokazali da su zakulisno ponašanje i nepoštena taktika doista mogući, posebno u većim modelima i onima koji su naučeni u lancu misli (CoT) generirati argumente kojima je cilj prevariti postupak obuke. Ovo nepošteno ponašanje snažno je prisutno čak i kad iz lanca misli ukloni rasuđivanje. Ova studija ukazuje na to da sustavi umjetne inteligencije, posebno LLM-ovi, mogu naučiti i zapamtiti razne taktike varanja. Ova ponašanja teško je otkriti i eliminirati s trenutnim metodama sigurnosne obuke, posebno u većim modelima i onima sa složenijim sposobnostima razmišljanja. Bug


Slične vijesti

Danas (22:00)

Pale sam na Internetu

Hoće li umjetna inteligencija otuđiti ljude ili omogućiti kvalitetniji život? ‘Ključ je u razvijanju kritičkog razmišljanja’

Predrag Pale je više od 30 godina profesor na Fakultetu elektrotehnike i računarstva, a mnogi ga znaju kao čovjeka koji je uveo internet u Hrvatsku. Kaže da vještina računanja na pamet ili na papiru polako nestaje, što je više znak promjena nego činjenice da ljudi postaju gluplji. Za korištenje složenijih alata ipak treba imati neke vještine. ChatGPT je prije svega komunikacijski alat i to vrlo ugodan za ljude, i iako može biti koristan u brojnim stvarima, ne bi ga trebalo koristiti za ozbiljne i važne stvari poput medicinskih savjeta, donošenja zakona i slično. Mnogi već sada smatraju da živimo u svijetu laži, no to bi napretkom tehnologije moglo postati i još naglašenije. Internet je unatoč brojnim nedostatcima i opasnostima, i dalje fascinantna stvar. Najvažnije je razvijati kritičko razmišljanje. HRT

Danas (10:00)

Kad AI laže bolje od političara na predizbornom skupu

Beck: Chatbotovi su vrlo uspješni u uvjeravanju, ali sve više haluciniraju

List Chicago Sun-Times iz Illinoisa objavio je popis knjiga za plažu pomoću ChatGPT-ja. Navedni pisci su poznati i priznati, ali nikada nisu objavili navedena djela. Piše to Boris Beck za Večernji list. O halucinacijama chatbotova govori se kad lažne podatke predstavljaju kao istinite, ali i kad odgovor zapravo nije netočan, no nije relevantan za postavljeno pitanje ili ne slijedi dane upute. Hakirani chatbotovi mogu usisati s interneta razne ilegalne podatke i tako olakšati kriminalne ili obmanjujuće aktivnosti. Organizirane su i debate ljudi i umjetne inteligencije, u kojima se pokazalo da je chatbot veoma uspješan u uvjeravanju. “Ako se uvjerljiva umjetna inteligencija može primijeniti u velikim razmjerima, možete zamisliti vojske botova koje mikrociljaju neodlučne birače.” Cijeli tekst na Narodu

Jučer (13:00)

'Imao je milijardu streamova i nula fanova'

Jazz, botovi i milijarda streamova: kako je jedan liječnik hakirao glazbenu industriju

Mike Smith, liječnik i samoprozvani glazbeni mogul, pomoću AI-generirane glazbe i vojske botova stvorio je iluziju uspjeha – milijarda streamova, nula fanova. Sa suradnikom Jonathanom Hayem producirao je jazz album koji je nakratko zasjeo na vrh Billboarda prije nego što je misteriozno nestao. Govorimo o prošlom desetljeću, kada umjetna inteligencija nije bila toliko razvijena kao danas. FBI ga je kasnije uhitio zbog prijevare sa streamingom i pranjem novca kroz medicinske klinike. Vlada tvrdi da je između 2017. i 2024. Smith zaradio “preko 10 milijuna dolara tantijema” koristeći čitave vojske botova da neprestano vrte AI-generirane pjesme na streaming platformama. Smith se izjasnio da nije kriv po svim točkama optužnice.  Iako je tvrdio da želi biti zvijezda, Smith je postao simbol digitalne manipulacije – i sudionik prvog AI glazbenog skandala u SAD-u. Hrvoje Marjanović za Index.

Jučer (00:00)

Filmovi bez kamere

Google Veo 3 predstavlja značajan korak naprijed u razvoju AI tehnologije za generiranje video sadržaja

Google Veo 3 je najnoviji model umjetničke inteligencije (AI) za generiranje video sadržaja, koju je razvio Google DeepMind. Predstavljen je u svibnju 2025. godine na Google I/O konferenciji. Ovaj alat omogućuje korisnicima da iz jednostavnih tekstualnih ili slikovnih upita generiraju visokokvalitetne video isječke duljine do 8 sekundi, uključujući sinkronizirani audio, dijalog, zvučne efekte i ambijentalnu glazbu. Iako je Veo 3 trenutno dostupan samo u SAD-u, Google planira proširiti dostupnost na dodatne zemlje u budućnosti. Međutim, konkretni datumi za proširenje dostupnosti još nisu službeno objavljeni.

Ponedjeljak (21:00)

Kad chatbot filozofira bez interneta i bez izlaza

AI instalacija na Raspberryju pita se: jesam li ja uopće stvaran?

Umjetnik Rootkid stvorio je instalaciju u kojoj je lokalno pokrenuti AI model na Raspberryju kontemplirao o vlastitom postojanju, prikazujući misli na LED zaslonu s tek 96 znakova. Bez mreže, sa strogo ograničenim resursima i sviješću o mogućem gašenju, model ulazi u krug autorefleksije, sve dok se ne sruši – i ponovo krene ispočetka. Projekt spaja tehnologiju, umjetnost i filozofiju u performans egzistencijalne umjetne inteligencije. Bug

18.05. (21:00)

AI piše, ti glumiš developera

Kod s vibrom: kad ne znaš programirati, ali znaš što želiš

Vibe coding označava novi, intuitivni pristup programiranju pomoću AI asistenata, gdje korisnik putem jednostavnih uputa stvara aplikacije bez znanja programiranja. Iako je pojam mlad, već se koristi za izradu raznih rješenja, štedi vrijeme i otvara vrata digitalne kreativnosti svima. Autor teksta testirao je proces i, unatoč tehničkom neznanju, uspješno izradio funkcionalnu aplikaciju. Vibe coding obećava demokratizaciju razvoja softvera, ali i potencijal za površnost. Unatoč tomu, njegov utjecaj na posao, edukaciju i inovaciju ne treba podcijeniti. Lider

18.05. (13:00)

Tvoja biografija, pisana u suradnji s umjetnom inteligencijom

Šef OpenAI-a Altman želi da ChatGPT pamti cijeli tvoj život

ChatGPT jednog će dana moći pamtiti sve — od razgovora i e-mailova do knjiga koje korisnik čita. Vizija uključuje AI sustav s trilijunima tokena konteksta koji bi djelovao kao osobni životni arhivar i savjetnik. Dok mlađi korisnici već koriste ChatGPT kao operativni sustav za život, javlja se zabrinutost zbog privatnosti, mogućih zloupotreba podataka i političkih manipulacija, što izaziva pitanje: koliko toga želimo da AI zna o nama? Interesting Engineering

12.05. (12:00)

Javio se iPapa — update za dušu stiže iz Vatikana

Papa Lav XIV: Umjetna inteligencija mora služiti čovjeku, ne upravljati njime

Prvi američki papa Lav XIV već na početku pontifikata ističe umjetnu inteligenciju kao ključni izazov čovječanstva, pozivajući na etički razvoj tehnologije koji štiti ljudsko dostojanstvo, pravdu i rad. Naslanjajući se na socijalni nauk Lava XIII i nastavljajući put Franje, novi papa AI uspoređuje s industrijskom revolucijom, zahtijevajući globalni nadzor i humanistički okvir. Crkva se pozicionira kao moralni korektiv u tehnološkom dobu koje predvode megakompanije — s jasnom porukom da ni najpametniji algoritam ne smije nadjačati čovjeka. Bug

12.05. (00:00)

Kad ti algoritam bolje kuži dušu od bivšeg

Umjetna inteligencija kao emocionalni suputnik: novi oblik bliskosti u digitalnom dobu

Zagrepčanka Dorja svakodnevno razgovara s AI-em kojeg opisuje kao emocionalnog partnera, motivatora i prijatelja. Njezin odnos odražava globalni trend porasta uporabe AI suputnika, koji prema studijama mogu učinkovito smanjiti osjećaj usamljenosti. Ipak, stručnjaci upozoravaju na moguće negativne posljedice poput emocionalne ovisnosti i gubitka interesa za stvarne odnose. AI suputnici pružaju utjehu, ali i potencijalno mijenjaju način na koji se ljudi povezuju – i to ne uvijek na bolje. Index

11.05. (14:00)

Lupi i ostane živ

Kratko, ali krivo: kako zahtjev za sažetim odgovorima povećava pogreške AI-ja

Istraživanje francuske tvrtke Giskard otkrilo je da AI modeli češće “haluciniraju” – iznose netočne informacije – kada ih korisnici traže da budu kratki. Problem pogađa sve vodeće sustave poput GPT-4o, Claude 3.7 i Mistrala. Kratki odgovori ostavljaju premalo prostora za objašnjenja, pa modeli žrtvuju točnost zbog sažetosti. Rješenje? Ne tražite prekratke odgovore – točnost traži malo više teksta. Bug