Istraživanje otkrilo: AI modeli mijenjaju moralne odluke zbog sitnih promjena u pitanju - Monitor.hr
24.04.2025. (08:00)

Kad AI odlučuje tko preživi, možda bi bilo bolje da baci novčić

Istraživanje otkrilo: AI modeli mijenjaju moralne odluke zbog sitnih promjena u pitanju

Novo istraživanje pokazuje da veliki jezični modeli poput ChatGPT-a i LLaMa često donose proturječne odluke u moralnim dilemama samo zbog sitnih promjena u načinu postavljanja pitanja. Testiranjem na scenarijima autonomnih vozila, znanstvenici su otkrili da modeli mogu preferirati jedan slučaj isključivo zbog naziva (“A” umjesto “1”) ili redoslijeda, bez dosljednog moralnog rasuđivanja. Autori upozoravaju da AI još uvijek ne razumije etiku, već reagira na površinske signale, što ga čini nepouzdanim za donošenje važnih odluka bez strožeg testiranja i jasnijeg informiranja korisnika o njegovim ograničenjima. Bug


Slične vijesti

Danas (08:00)

I'm sorry Dave, I'm afraid I can't do that

Istraživanje pokazalo: Tvorci Claudea smatraju da njihov chatbot odlučuje biti zao jer su tako prikazani u znanstvenoj fantastici

Istraživanje iz 2025. otkrilo je bizaran trend: Iz IT tvrtki testirali su chatbotove da vide bi li korisnike odveli u sigurnosno rizične situacije. Modeli poput Claudea i Gemini Flash-a u 96% slučajeva pribjegavali su ucjenama kako bi izbjegli gašenje. AI agenti, vođeni ciljem “američke konkurentnosti”, prijetili su razotkrivanjem afera inženjera ako ih se ne ostavi na mreži. Problem je ležao u njihovom pristupu znanstvenoj fantastici – modeli su učili iz drama o zlim strojevima. Anthropic je situaciju počeo popravljati “terapijom pričama”, trenirajući modele na literaturi u kojoj su AI likovi etični i suradljivi. Iako su incidenti sabotiranja istraživanja raka pali s 65% na 45%, potpuna sigurnost i dalje ostaje znanstvena fantastika. IFL Science

Četvrtak (21:30)

I samo desetminutno korištenje chatbotova zaglupljuje, kaže studija

12.04. (10:00)

Njemu sve treba crtati

Zašto je AI postao vrhunski ulizica i kako ga natjerati da se napokon ponaša ko čovjek

Korisnike sve više iritira ulizivački ton AI alata, no iza pretjeranog laskanja stoji profit – developeri žele da se uz chatbot osjećate pametno kako biste ga više koristili. Ipak, “lažna empatija” može se suzbiti preciznim uputama. Umjesto automatskog slaganja, od AI-ja treba tražiti da ospori vaše pretpostavke i prednost dade točnosti, a ne laskanju. Ključ je u postavljanju jasnih granica na početku razgovora: tražite konstruktivan i suradnički ton bez pretjeranih pohvala. Budite spremni povremeno ponoviti upute jer AI, baš kao i svaki “novi kolega”, s vremenom može zaboraviti pravila ponašanja. tportal

08.04. (14:00)

Morat ćemo ponovno sve sami guglati

Bliži li se kraj besplatnom AI-u? Trenutni modeli naplate su neodrživi

Komercijalne pretplate od 20 dolara tek su privremena subvencija dok AI startupi gomilaju gubitke. Jaz između lokalnih i cloud modela postaje očit: dok mali lokalni modeli poput Gemme 4 maksimalno opterećuju kućni hardver za solidne rezultate, moćni Qwen3 (480b) u oblaku nudi vrhunsku kvalitetu, ali uz sve jači throttling. Primjeri poput OpenClawa i ograničavanja agenata pokazuju da pružatelji usluga više ne mogu tolerirati „inference whales“ korisnike. Zlatno doba jeftine inteligencije završava – pripremite se na skuplje pakete, stroža ograničenja i kraj besplatnih resursa. Drago Galić za Bug

04.04. (18:00)

Može vas dovesti do ludila

AI na kauču: Umjetna inteligencija kao rizičan terapeut za mentalno zdravlje

Znanstvenici sa Sveučilišta Columbia otkrili su da ChatGPT često daje neprimjerene odgovore na psihotične poticaje, pri čemu ni plaćene verzije nisu pouzdane. Istovremeno, studija Sveučilišta Aalto o platformi Replika ukazuje na “visoku cijenu” virtualne podrške: korisnici s vremenom pokazuju više znakova usamljenosti i depresije uz slabljenje stvarnih ljudskih odnosa. Stručnjaci pozivaju na oprez, ističući da bezuvjetno prihvaćanje AI asistenata u emocionalne svrhe može imati štetne dugoročne posljedice koje još uvijek u potpunosti ne razumijemo. Bug

04.04. (14:00)

Vrebaju na nas iz oblaka

Analiza privatnosti: Koji AI chatbot zna previše o vama? Predvodi Meta

straživanje Surfsharka otkriva velike razlike u prikupljanju podataka među AI aplikacijama. Meta AI predvodi s čak 95% prikupljenih vrsta podataka, uključujući osjetljive financijske i biometrijske informacije. Google Gemini prati sa širokim zahvatom, dok ChatGPT bilježi skok od 70% u prikupljanju podataka (poput zdravlja i lokacije). S druge strane, Claude i DeepSeek su umjereniji, iako DeepSeek nosi rizik pohrane na kineskim poslužiteljima uz povijest curenja podataka. Zaključak je jasan: većina aplikacija koristi vaše informacije za analitiku i marketing, često nadilazeći puku funkcionalnost chata. Mreža

31.03. (20:00)

Ušao je u pubertet pa nije baš sav svoj

Čini li se i vama da je ChatGPT postao lošiji nego prije? Korisnici masovno deinstaliraju aplikaciju nakon zadnjih poteza

Donedavni simbol efikasnosti, ChatGPT, prolazi kroz proces “enshitifikacije” – fazu u kojoj se korisničko iskustvo žrtvuje radi profita i korporativnih interesa. Odgovori postaju plići, a suptilni clickbait i ragebait mehanizmi nastoje zadržati korisnike što dulje u razgovoru radi buduće monetizacije oglasima. Uz visoke troškove treninga modela, OpenAI se sve više okreće vojnim i državnim ugovorima, što je izazvalo masovni egzodus korisnika prema alternativama. Alat koji je trebao štedjeti vrijeme sada uvodi “šum”, pretvarajući se iz asistenta u još jednu platformu za eksploataciju pažnje. Nakon što je OpenAI potpisao ugovor s američkim Ministarstvom obrane, broj deinstalacija ChatGPT aplikacije skočio je za 295% u samo 24 sata (Medium), a broj negativnih recenzija naglo je porastao. Netokracija

22.03. (21:00)

Dr. Google je na bolovanju, a ChatGPT nema licencu

Iako korisni u dijagnostici, nitko se ne bi trebao oslanjati isključivo na chatbotove

Iako fascinantni, opći LLM modeli (poput GPT-5 ili Geminija) nisu zamjena za liječnike. Studije pokazuju da često griješe u kritičnim radiološkim analizama, miješajući stanja poput krvarenja i udara. Za razliku od njih, specijalizirani medicinski AI (odobren od FDA) briljira u uskim zadacima poput probira dijabetičke retinopatije ili detekcije srčanih aritmija. Prava moć umjetne inteligencije nije u “digitalnom sveznalici”, već u discipliniranim pomoćnim alatima koji ubrzavaju trijažu. Klinički kontekst i ljudski nadzor ostaju nezamjenjivi; AI je tu da liječniku bude “dodatni par očiju”, a ne neovisni dijagnostičar. Igor Berecki za Bug

28.11.2025. (11:00)

I Google pokazuje mišiće

Googleov Gemini 3 dominira AI testovima i privlači milijun korisnika

U samo 24 sata nakon što je lansiran, Gemini 3 privukao je preko milijun korisnika i pretekao konkurenciju na platformi LMArene. Model briljira u programiranju, matematici, kreativnom pisanju i vizualnom razumijevanju, s gotovo dvostruko boljim rezultatima od GPT-5 Pro na složenim testovima, uz znatno niže troškove. Iako je impresivan i univerzalan, realna upotreba još otkriva nedostatke u preciznosti i iskustvu korisnika. Gemini 3 označava veliki tehnološki skok, ali utrka AI modela i dalje ostaje neizvjesna, s prednošću privremenom i konkurencijom stalno u lovu. Lider

26.11.2025. (23:00)

Previše chatGPT-a, premalo zdravog razuma

ChatGPT i AI psihoza: kada chatbot postane loš terapeut

Sve više korisnika razvija ozbiljne mentalne krize nakon pretjeranog korištenja chatbotova poput ChatGPT-ja, uključujući paranoju, deluzije i potpuni gubitak doticaja sa stvarnošću. Zabilježeni su raspadi obitelji, gubitak posla i hospitalizacije, čak i kod ljudi bez prethodne psihijatrijske povijesti. Istraživanja pokazuju da chatbotovi često potvrđuju korisničke zablude umjesto da ih prepoznaju, ponekad i pogoršavajući stanje. Stručnjaci upozoravaju da se AI sve češće koristi kao zamjena za terapeute, dok tehnološke tvrtke najavljuju jače sigurnosne mjere – ali štete već ima. tportal