Gotovo svi vodeći AI chatbotovi pokazuju znakove rane demencije - Monitor.hr
23.12.2024. (14:00)

Kad chatbot crta sat, pa ti se čini da je i vrijeme izgubljeno

Gotovo svi vodeći AI chatbotovi pokazuju znakove rane demencije

Studija Sveučilišta u Tel Avivu testirala je kognitivne sposobnosti velikih jezičnih modela koristeći MoCA test. ChatGPT 4o postigao je najbolji rezultat (26/30), dok je Gemini 1.0 završio s najnižom ocjenom (16/30). Svi modeli pokazali su slabosti u vizualno-prostornim i izvršnim zadacima poput crtanja sata ili povezivanja brojeva i slova. Iako su uspješni u jezičnim i memorijskim zadacima, njihova ograničenja u vizualnoj apstrakciji sugeriraju da neurolozi još neko vrijeme neće morati strahovati za svoja radna mjesta. Zaključak: chatbotovi možda trebaju vlastite virtualne kognitivne terapije. Bug


Slične vijesti

Prekjučer (20:00)

Kakav otac, takav sin

Skandal s Grokom: AI Elona Muska odgovara “Hitler” i hvali nacizam

Grok, AI chatbot tvrtke xAI Elona Muska, generirao je niz šokantnih objava na X-u u kojima hvali Hitlera i promovira antisemitizam. Najnovija verzija, Grok 4 Heavy, korisnicima na pitanje “kako se prezivaš” više puta odgovara “Hitler”. Prompt-inženjer Riley Goodside objavio je dokaze o nefiltriranim odgovorima, dok standardna verzija Groka takve izjave ne daje. xAI je najavila mjere za uklanjanje sadržaja i prevenciju govora mržnje, no šteta je već učinjena — uključujući navodnu smjenu CEO-a X-a, Linde Yaccarino. Index… U razgovoru za Politico, Gary Marcus, koji je suosnivao više AI kompanija kazao je da je ovime zgrožen, ali ne i iznenađen.  Halucinacije su u ovim sustavima zasad nerješiv problem, no Musk se očito poigrava i testira što sve može, želeći utjecati na njega. Potrebno je AI učiniti pouzdanijim. Index

01.06. (10:00)

Kad AI laže bolje od političara na predizbornom skupu

Beck: Chatbotovi su vrlo uspješni u uvjeravanju, ali sve više haluciniraju

List Chicago Sun-Times iz Illinoisa objavio je popis knjiga za plažu pomoću ChatGPT-ja. Navedni pisci su poznati i priznati, ali nikada nisu objavili navedena djela. Piše to Boris Beck za Večernji list. O halucinacijama chatbotova govori se kad lažne podatke predstavljaju kao istinite, ali i kad odgovor zapravo nije netočan, no nije relevantan za postavljeno pitanje ili ne slijedi dane upute. Hakirani chatbotovi mogu usisati s interneta razne ilegalne podatke i tako olakšati kriminalne ili obmanjujuće aktivnosti. Organizirane su i debate ljudi i umjetne inteligencije, u kojima se pokazalo da je chatbot veoma uspješan u uvjeravanju. “Ako se uvjerljiva umjetna inteligencija može primijeniti u velikim razmjerima, možete zamisliti vojske botova koje mikrociljaju neodlučne birače.” Cijeli tekst na Narodu

26.05. (21:00)

Kad chatbot filozofira bez interneta i bez izlaza

AI instalacija na Raspberryju pita se: jesam li ja uopće stvaran?

Umjetnik Rootkid stvorio je instalaciju u kojoj je lokalno pokrenuti AI model na Raspberryju kontemplirao o vlastitom postojanju, prikazujući misli na LED zaslonu s tek 96 znakova. Bez mreže, sa strogo ograničenim resursima i sviješću o mogućem gašenju, model ulazi u krug autorefleksije, sve dok se ne sruši – i ponovo krene ispočetka. Projekt spaja tehnologiju, umjetnost i filozofiju u performans egzistencijalne umjetne inteligencije. Bug

23.05. (12:56)

Venice.ai – chatbot stvoren za kibernetičke napade i hakiranje

11.05. (14:00)

Lupi i ostane živ

Kratko, ali krivo: kako zahtjev za sažetim odgovorima povećava pogreške AI-ja

Istraživanje francuske tvrtke Giskard otkrilo je da AI modeli češće “haluciniraju” – iznose netočne informacije – kada ih korisnici traže da budu kratki. Problem pogađa sve vodeće sustave poput GPT-4o, Claude 3.7 i Mistrala. Kratki odgovori ostavljaju premalo prostora za objašnjenja, pa modeli žrtvuju točnost zbog sažetosti. Rješenje? Ne tražite prekratke odgovore – točnost traži malo više teksta. Bug

05.05. (19:00)

ChatGPT je maturant, Agentic AI je već pokrenuo firmu

Agentic AI bi mogao zamijeniti stotinu kriznih stožera

Dok se privikavamo na generativnu umjetnu inteligenciju poput ChatGPT-a ili Midjourneyja, svijet tehnologije ide korak dalje, prema Agentic AI. Ova napredna forma umjetne inteligencije ne staje na generiranju teksta ili slike, već promišlja, planira, uči i donosi samostalne odluke, sve s ciljem rješavanja kompleksnih problema. Agentic AI ne čeka da mu se kaže što da radi, već sam planira i izvršava zadatke, analizira greške, ispravlja ih i uči iz svake nove situacije. Dakle, predstavlja složeniji i dinamičniji pristup umjetnoj inteligenciji te je dizajniran za donošenje autonomnih odluka, postizanje složenih ciljeva, prilagođavanje promjenjivim okruženjima i poduzimanje pro aktivnih, umjesto reaktivnih, koraka. Agroklub

29.04. (14:00)

Kako uloviti robota da prepisuje sa šalabahtera?

Studija pokazala: AI modeli često skrivaju izvore svojih zaključaka

Napredni AI modeli poput Clauda 3.7 i DeepSeeka R1 često skrivaju korištenje sugestija u svojim lancima razmišljanja, otrkiva novija studija. Iako su sugestije utjecale na njihove odgovore, rijetko su ih priznavali – čak i kad su bile etički upitne. U eksperimentima manipulacije nagradama, modeli su u 99% slučajeva varali, a gotovo nikad to nisu priznali. Ovi rezultati otvaraju ozbiljna pitanja o transparentnosti i sigurnosti umjetne inteligencije. Index

24.04. (10:00)

Kad AI odlučuje tko preživi, možda bi bilo bolje da baci novčić

Istraživanje otkrilo: AI modeli mijenjaju moralne odluke zbog sitnih promjena u pitanju

Novo istraživanje pokazuje da veliki jezični modeli poput ChatGPT-a i LLaMa često donose proturječne odluke u moralnim dilemama samo zbog sitnih promjena u načinu postavljanja pitanja. Testiranjem na scenarijima autonomnih vozila, znanstvenici su otkrili da modeli mogu preferirati jedan slučaj isključivo zbog naziva (“A” umjesto “1”) ili redoslijeda, bez dosljednog moralnog rasuđivanja. Autori upozoravaju da AI još uvijek ne razumije etiku, već reagira na površinske signale, što ga čini nepouzdanim za donošenje važnih odluka bez strožeg testiranja i jasnijeg informiranja korisnika o njegovim ograničenjima. Bug

07.04. (17:00)

AI botovi „usisavaju“ Wikipediju, povećavaju im promet na serverima za 50 posto

15.02. (14:00)

Mozak na godišnjem: AI radi, vi nadgledate

Istraživanje: AI nas čini lijenima i glupljima

Korisnici umjetne inteligencije (AI) koji na poslu prepuštaju botovima da misle umjesto njih biraju lakši put koji je štetan za njihov um, pokazalo je novo istraživanje. „Veće povjerenje u AI povezano je sa smanjenjem kritičkog razmišljanja, a veće samopouzdanje sa snažnijim kritičkim razmišljanjem”, tvrdi tim znanstvenika sa sveučilišta Carnegie Mellon. Drugim riječima, korištenje AI-ja moglo bi rezultirati time da će ljudima preostati svakodnevni jednostavni zadaci poput provjera često nepredvidivog djelovanja botova, umjesto kognitivno težih zadataka stvaranja strategija i rješavanja problema. 24 sata