Chatboti bolje utječu na zdravlje od lifecoachinga - Monitor.hr
09.08.2023. (18:00)

Malo umjetne inteligencije na dan tjera doktora van

Chatboti bolje utječu na zdravlje od lifecoachinga

Chatbotovi su se pokazali kao vrlo učinkovit alat za značajno poboljšanje tjelesne aktivnosti, prehrane i spavanja, pokazao je prvi sustavni pregled i meta-analiza ove vrste koju su proveli istraživači Sveučilišta Južne Australije u Adelaideu. Njihova studija, objavljena u časopisu Nature Digital Medicine, otkrila je da su razgovori s chatbotovima zaslužni za dodatnih 735 koraka dnevno, dodatnu porcija voća i povrća i 45 minuta noćnog sna. Njihova privlačnost leži u načinu na koji mogu generirati trenutne, privlačne i personalizirane odgovore, koji potiču korisnike da donose bolje odluke o svom svakodnevnom kretanju, prehrambenim navikama i spavanju, ističu istraživači koji su otkrili kako su chatbotovi temeljeni na tekstu učinkovitiji od umjetne inteligencije temeljene na govoru ili glasu. To sugerira da je, barem zasad, komunikacija temeljena na tekstu pogodnija za postizanje pozitivnih ishoda povezanih sa zdravljem. Bug


Slične vijesti

Jučer (12:00)

Morat ćemo ponovno sve sami guglati

Bliži li se kraj besplatnom AI-u? Trenutni modeli naplate su neodrživi

Komercijalne pretplate od 20 dolara tek su privremena subvencija dok AI startupi gomilaju gubitke. Jaz između lokalnih i cloud modela postaje očit: dok mali lokalni modeli poput Gemme 4 maksimalno opterećuju kućni hardver za solidne rezultate, moćni Qwen3 (480b) u oblaku nudi vrhunsku kvalitetu, ali uz sve jači throttling. Primjeri poput OpenClawa i ograničavanja agenata pokazuju da pružatelji usluga više ne mogu tolerirati „inference whales“ korisnike. Zlatno doba jeftine inteligencije završava – pripremite se na skuplje pakete, stroža ograničenja i kraj besplatnih resursa. Drago Galić za Bug

Subota (18:00)

Može vas dovesti do ludila

AI na kauču: Umjetna inteligencija kao rizičan terapeut za mentalno zdravlje

Znanstvenici sa Sveučilišta Columbia otkrili su da ChatGPT često daje neprimjerene odgovore na psihotične poticaje, pri čemu ni plaćene verzije nisu pouzdane. Istovremeno, studija Sveučilišta Aalto o platformi Replika ukazuje na “visoku cijenu” virtualne podrške: korisnici s vremenom pokazuju više znakova usamljenosti i depresije uz slabljenje stvarnih ljudskih odnosa. Stručnjaci pozivaju na oprez, ističući da bezuvjetno prihvaćanje AI asistenata u emocionalne svrhe može imati štetne dugoročne posljedice koje još uvijek u potpunosti ne razumijemo. Bug

Subota (14:00)

Vrebaju na nas iz oblaka

Analiza privatnosti: Koji AI chatbot zna previše o vama? Predvodi Meta

straživanje Surfsharka otkriva velike razlike u prikupljanju podataka među AI aplikacijama. Meta AI predvodi s čak 95% prikupljenih vrsta podataka, uključujući osjetljive financijske i biometrijske informacije. Google Gemini prati sa širokim zahvatom, dok ChatGPT bilježi skok od 70% u prikupljanju podataka (poput zdravlja i lokacije). S druge strane, Claude i DeepSeek su umjereniji, iako DeepSeek nosi rizik pohrane na kineskim poslužiteljima uz povijest curenja podataka. Zaključak je jasan: većina aplikacija koristi vaše informacije za analitiku i marketing, često nadilazeći puku funkcionalnost chata. Mreža

31.03. (20:00)

Ušao je u pubertet pa nije baš sav svoj

Čini li se i vama da je ChatGPT postao lošiji nego prije? Korisnici masovno deinstaliraju aplikaciju nakon zadnjih poteza

Donedavni simbol efikasnosti, ChatGPT, prolazi kroz proces “enshitifikacije” – fazu u kojoj se korisničko iskustvo žrtvuje radi profita i korporativnih interesa. Odgovori postaju plići, a suptilni clickbait i ragebait mehanizmi nastoje zadržati korisnike što dulje u razgovoru radi buduće monetizacije oglasima. Uz visoke troškove treninga modela, OpenAI se sve više okreće vojnim i državnim ugovorima, što je izazvalo masovni egzodus korisnika prema alternativama. Alat koji je trebao štedjeti vrijeme sada uvodi “šum”, pretvarajući se iz asistenta u još jednu platformu za eksploataciju pažnje. Nakon što je OpenAI potpisao ugovor s američkim Ministarstvom obrane, broj deinstalacija ChatGPT aplikacije skočio je za 295% u samo 24 sata (Medium), a broj negativnih recenzija naglo je porastao. Netokracija

22.03. (21:00)

Dr. Google je na bolovanju, a ChatGPT nema licencu

Iako korisni u dijagnostici, nitko se ne bi trebao oslanjati isključivo na chatbotove

Iako fascinantni, opći LLM modeli (poput GPT-5 ili Geminija) nisu zamjena za liječnike. Studije pokazuju da često griješe u kritičnim radiološkim analizama, miješajući stanja poput krvarenja i udara. Za razliku od njih, specijalizirani medicinski AI (odobren od FDA) briljira u uskim zadacima poput probira dijabetičke retinopatije ili detekcije srčanih aritmija. Prava moć umjetne inteligencije nije u “digitalnom sveznalici”, već u discipliniranim pomoćnim alatima koji ubrzavaju trijažu. Klinički kontekst i ljudski nadzor ostaju nezamjenjivi; AI je tu da liječniku bude “dodatni par očiju”, a ne neovisni dijagnostičar. Igor Berecki za Bug

28.11.2025. (11:00)

I Google pokazuje mišiće

Googleov Gemini 3 dominira AI testovima i privlači milijun korisnika

U samo 24 sata nakon što je lansiran, Gemini 3 privukao je preko milijun korisnika i pretekao konkurenciju na platformi LMArene. Model briljira u programiranju, matematici, kreativnom pisanju i vizualnom razumijevanju, s gotovo dvostruko boljim rezultatima od GPT-5 Pro na složenim testovima, uz znatno niže troškove. Iako je impresivan i univerzalan, realna upotreba još otkriva nedostatke u preciznosti i iskustvu korisnika. Gemini 3 označava veliki tehnološki skok, ali utrka AI modela i dalje ostaje neizvjesna, s prednošću privremenom i konkurencijom stalno u lovu. Lider

26.11.2025. (23:00)

Previše chatGPT-a, premalo zdravog razuma

ChatGPT i AI psihoza: kada chatbot postane loš terapeut

Sve više korisnika razvija ozbiljne mentalne krize nakon pretjeranog korištenja chatbotova poput ChatGPT-ja, uključujući paranoju, deluzije i potpuni gubitak doticaja sa stvarnošću. Zabilježeni su raspadi obitelji, gubitak posla i hospitalizacije, čak i kod ljudi bez prethodne psihijatrijske povijesti. Istraživanja pokazuju da chatbotovi često potvrđuju korisničke zablude umjesto da ih prepoznaju, ponekad i pogoršavajući stanje. Stručnjaci upozoravaju da se AI sve češće koristi kao zamjena za terapeute, dok tehnološke tvrtke najavljuju jače sigurnosne mjere – ali štete već ima. tportal

20.11.2025. (19:00)

I chatbotu treba objasniti kao čovjeku, a ne kao GPS-u u tunelu

Kako koristiti ChatGPT ili Gemini za bolje odgovore

Kvaliteta odgovora AI chatbotova najviše ovisi o kvaliteti samog prompta. Četiri su ključna pravila koje donosi Bug: pružite što više konteksta i detalja, jasno recite što ne želite da AI radi, dodijelite mu ulogu stručnjaka kako bi odgovori bili fokusiraniji te koristite precizne fraze koje ga navode na konkretnije, manje generičke rezultate. Dobar prompt znači jasne upute, stil, cilj i ograničenja. Eksperimentiranje i fino podešavanje tijekom razgovora najbolji su način da dobijete kreativnije i korisnije odgovore.

12.08.2025. (13:00)

Nova verzija pametnija, stara verzija draža

ChatGPT-5 halucinira manje od GPT-a 4o, no Grok i dalje najviše izmišlja

OpenAI je needavno lansirao ChatGPT-5, hvaleći ga kao najpouzdaniji model dosad, s manjom stopom halucinacija (1,4%) od GPT-4 (1,8%), ali tek neznatno boljim od GPT-4o (1,49%). Unatoč napretku, o3-mini High Reasoning ostaje najprecizniji (0,795%). U usporedbi, Googleov Gemini-2.5-pro ima 2,6%, a xAI-jev Grok-4 čak 4,8% halucinacija. Kontroverzu je izazvalo uklanjanje GPT-4 varijanti iz Plus pretplata, što je izazvalo negodovanje korisnika. Altman je priznao pogrešku i privremeno vratio GPT-4o. Bug

13.07.2025. (22:00)

Kakav otac, takav sin

Skandal s Grokom: AI Elona Muska odgovara “Hitler” i hvali nacizam

Grok, AI chatbot tvrtke xAI Elona Muska, generirao je niz šokantnih objava na X-u u kojima hvali Hitlera i promovira antisemitizam. Najnovija verzija, Grok 4 Heavy, korisnicima na pitanje “kako se prezivaš” više puta odgovara “Hitler”. Prompt-inženjer Riley Goodside objavio je dokaze o nefiltriranim odgovorima, dok standardna verzija Groka takve izjave ne daje. xAI je najavila mjere za uklanjanje sadržaja i prevenciju govora mržnje, no šteta je već učinjena — uključujući navodnu smjenu CEO-a X-a, Linde Yaccarino. Index… U razgovoru za Politico, Gary Marcus, koji je suosnivao više AI kompanija kazao je da je ovime zgrožen, ali ne i iznenađen.  Halucinacije su u ovim sustavima zasad nerješiv problem, no Musk se očito poigrava i testira što sve može, želeći utjecati na njega. Potrebno je AI učiniti pouzdanijim. Index