BabAI
Umjetna inteligencija naučila plesti
Made by AI: how technology has learnt to knit @MIT https://t.co/2K3OSxZrgE #AI pic.twitter.com/SBf82Dwvx3
— World Economic Forum (@wef) August 16, 2019
Made by AI: how technology has learnt to knit @MIT https://t.co/2K3OSxZrgE #AI pic.twitter.com/SBf82Dwvx3
— World Economic Forum (@wef) August 16, 2019
Kineski znanstvenici sa Sveučilišta u Pekingu postigli su povijesni proboj: njihov AI sustav autonomno je riješio otvoreni problem iz komutativne algebre profesora Dana Andersona. Koristeći inovativni “dual-agent” pristup, model je kombinirao logičko zaključivanje s formalnom verifikacijom u jeziku Lean 4. Ono što bi ljudskim stručnjacima oduzelo mjesece, AI je završio za samo 80 sati, generirajući 19.000 linija koda. Ovaj uspjeh, objavljen na arXivu, demonstrira moć automatizacije u apstraktnoj matematici, premošćujući jaz između kreativnog razmišljanja i strojne preciznosti bez ljudske intervencije. Bug
Povijest tehnološkog otpora, od razbijanja razboja 1811. do današnjih napada na infrastrukturu Silicijske doline, otkriva istu matricu: strah nije usmjeren prema strojevima, već prema društvenoj preraspodjeli moći. Moderni „luditi“ nisu tehnofobi, već radnici i zajednice koji osjećaju da AI ne donosi emancipaciju, već pojačan nadzor i privatizaciju javnih resursa. Dok se „oblak“ materijalizira kroz bučne data-centre koji troše lokalnu vodu i struju, sukob ostaje politički. Pitanje napretka zapravo je pitanje vlasništva: hoće li tehnologija služiti čovjeku ili će postati elegantno sučelje za dodatno iscrpljivanje rada i prostora? Igor Berecki za Bug
Tekst na Psychology today povlači oštru granicu između reprezentacije i iskustva. Analogija s amil-acetatom: kemikalija koja može savršeno imitirati miris banane, ali ona nikada ne postaje banana. AI funkcionira na isti način – on barata vrhunskim opisima stvarnosti, ali nema pristup samoj stvarnosti.
Najveća prepreka u korištenju umjetne inteligencije nije tehničko neznanje, već mentalna blokada da nam treba predobuka. Za razliku od Excela, AI koristi sučelje koje već savršeno poznajete – razgovor. Umjesto učenja alata, krenite od konkretnog problema. Opišite ga prirodno, pitajte „zašto“ i ne bojte se iteracija; proces učenja odvija se kroz dijalog. Iako AI nije nepogrešiv i zahtijeva oprez s privatnim podacima, ne morate biti „tehnički tip“ da biste ga ukrotili. Vaša uloga nije programiranje, već kritičko razmišljanje i usmjeravanje. Otvorite chat i jednostavno počnite. Kažu na Netokraciji
Prema istraživanju tvrtke Graphite, u studenom 2024. godine dogodila se povijesna prekretnica: AI-generirani sadržaj po brojnosti je nadmašio onaj ljudski. Analiza 65.000 URL-ova pokazuje da je udio AI članaka skočio s minornih 2,2 % u 2020. na 51,7 % u svibnju 2025. godine. Iako je hiperprodukcija robotskih tekstova promijenila lice weba, trend rasta se stabilizirao. Zanimljivo je da veći volumen ne znači i veću popularnost; AI članci su i dalje manje vidljivi na Googleu, što sugerira da publika (ili barem algoritmi) i dalje preferira ljudski dodir. Mreža
Ova epizoda podcasta Moonshots analizira dramatične promjene u tehnološkom sektoru, fokusirajući se na potencijalnu akviziciju kursora od strane SpaceX-a za nevjerojatnih 60 milijardi dolara. Peter Diamandis i gosti raspravljaju o tome kako napredni AI modeli poput Claudea počinju ugrožavati tradicionalni SaaS (Software as a Service) sektor. Također, dotaknuli su se masovnih odlazaka iz OpenAI-ja te uspona “AI-native” startupa koji prijete sporim korporacijama. Uz analizu geopolitičkih rizika i budućnosti rada, epizoda nudi uvid u “obilje” koje donosi tehnologija, uključujući ambiciozne projekte za drastično smanjenje troškova života… preporučili ga na Monitorovom forumu: Likovi su uspješni poduzetnici, obrazovani i praktičari u AI-ju. Njihova mantra je – škole su gotove, glavna preporuka za klince – idite u poduzetnike, jer danas jedan čovjek može realizirati tvrtku od milijardu dolara. Solo, bez radnika.
Iako se Anthropic voli praviti važan jer su “odbili” Pentagon, njihov adut Claude zapravo je koristan alat (koji ne pati od amnezije). Glavna fora je uvoz memorije iz ChatGPT-a kako ne biste morali ispočetka objašnjavati da mrzite korijander. Claude analizira vaše fotke, PDF-ove, pa čak i screenshotove otvorenih prozora (zato oprezno s tabovima!). Može se povezati s Google Driveom ili GitHubom, a ako postanete paranoični, jednim klikom mu možete “isprati mozak” gašenjem postavki privatnosti. Ukratko: pametan je, radoznao i navodno ima principe. PC Mag
U distopiji Georgea Orwella, strojevi zvani versifikatori automatski su generirali ispraznu zabavu za mase, što jezivo podsjeća na današnju poplavu jeftinog AI sadržaja (“slop”). Dok je Isaac Asimov 1980. kritizirao Orwellovu tehnološku viziju kao promašenu, moderni jezični modeli pokazuju da je autor 1984. točno predvidio društvenu potražnju za automatiziranom, niskokvalitetnom kulturom. Činjenica da takav sadržaj dominira internetom ne sugerira samo moć tehnologije, već i nezahtjevnost publike. Open Culture, Boing Boing
Dok AI sektor bilježi eksponencijalni rast, cijena napretka postaje ekološki neodrživa. Svaki upit chatbotu troši oko pola litre vode zbog evaporativnog hlađenja servera – najjeftinije, ali najpogubnije metode koja isušuje lokalne ekosustave. Tehnološki giganti poput Microsofta bilježe golem skok u potrošnji, dok netransparentnost prikriva stvarne razmjere krize. Do 2028. potrošnja bi se mogla učetverostručiti, gurajući data centre u izravan sukob s poljoprivredom i stanovništvom. Bez hitnog prelaska na održivije sustave hlađenja, riskiramo iscrpljivanje ključnih vodnih resursa zbog generiranja trivijalnih digitalnih sadržaja. Lider
Znanstvenica Almira Osmanović Thunström razotkrila je ozbiljne propuste AI modela kreirajući “biksonimaniju” – potpuno izmišljenu bolest s apsurdnim simptomima. Unatoč jasnim parodijskim tragovima, poput autora pod imenom Lažljiv Izgubljenović sa Starfleet Akademije, sustavi kao što su ChatGPT i Gemini počeli su bolest opisivati kao stvarnu. Problem je eskalirao kada su indijski istraživači, oslanjajući se na AI, citirali ovaj lažni rad u stručnom časopisu. Eksperiment je dokazao da AI sustavi kritično brzo pretvaraju dezinformacije u “činjenice”, što otvara ozbiljna pitanja o sigurnosti korištenja umjetne inteligencije u medicini i znanosti. Bug