Kako AI prepoznaje lažne vijesti na društvenim mrežama

Uvod: Kada AI postaje i problem i rješenje
Umjetna inteligencija danas istovremeno stvara i otkriva lažne vijesti na društvenim mrežama, s točnošću detekcije između 78% i 94%, ali i stopom pogrešaka od gotovo 31% kod chatbotova. Ovaj paradoks čini AI jednim od najkontroverznijih alata u borbi protiv dezinformacija.
World Economic Forum u svom izvješću o globalnim rizicima za 2026. godinu rangira dezinformacije i AI-generirani sintetički sadržaj (deepfake) među pet najvećih kratkoročnih globalnih prijetnji. U Hrvatskoj smo ovu prijetnju vidjeli na djelu tijekom nedavnih parlamentarnih izbora, kada su deepfake tehnologije korištene za targetiranje političke elite, ponajviše kroz glasovnu sintezu i tzv. "jeftine lažnjake" na TikToku i X-u, prema podacima European Digital Media Observatory (EDMO).
Za razliku od tradicionalnog fact-checkinga koji provode novinari, AI sustavi rade na principu vjerojatnosti i prepoznavanja obrazaca. No kako točno funkcioniraju ti algoritmi? Zašto i dalje griješe? I najvažnije - što Hrvatska radi po tom pitanju?
Kako AI sustavi detektiraju lažne vijesti: Tehnički pristup
AI detektori analiziraju više slojeva sadržaja - lingvističke obrasce, metapodatke slika, ponašanje korisnika i mrežne veze između računa - kako bi procijenili vjerojatnost da je sadržaj dezinformacija.
Analiza teksta i prirodnog jezika (NLP)
Algoritmi Natural Language Processing (NLP) pretražuju tekst za tipične jezične markere lažnih vijesti: pretjerane tvrdnje ("100% dokazano"), emocionalno nabijene riječi, nedostatak verificiranih izvora i gramatičke nepravilnosti. Google DeepMind i OpenAI koriste velike jezične modele (LLM) koji su trenirani na milijunima verificiranih i lažnih članaka te mogu prepoznati stilske razlike.
Međutim, ovdje nastaje prvi problem: satirični sadržaj i kontekstualno ovisne izjave često se pogrešno označavaju kao lažne vijesti. AI ne razumije humor ili ironiju na razini ljudskog čitatelja.
Detekcija deepfake videa i slika
Google je 2025. godine uveo SynthID, alat koji ugrađuje nevidljive digitalne vodene žigove direktno u piksele AI-generiranih slika i video frameova. Za razliku od tradicionalnih watermarkova, SynthID preživljava rezanje slike, promjenu boja i kompresiju. [Izvor: Google AI Blog, 2025]
Anthropic, tvrtka iza AI modela Claude, u svom izvješću o prijetnjama iz kolovoza 2025. navodi kako su kibernetički kriminalci i državno sponzorirani akteri počeli koristiti AI za kreiranje lažnih identiteta i masovno širenje dezinformacija. Kao odgovor, Anthropic je implementirao automatizirane metode detekcije koje baniraju račune koji generiraju zlonamjerni sintetički sadržaj. [Izvor: Anthropic Blog, 2025]
Analiza ponašanja korisnika i mreže
AI također prati kako se sadržaj širi:Bot mreže dijele lažne vijesti u koordiniranim valovima, često iz novih računa s minimalnom aktivnošću. Algoritmi detektiraju te obrasce - naglo povećanje dijeljenja, geografsku koncentraciju aktivnosti i neprirodno visoku stopu angažmana u kratkom vremenskom periodu.
Točnost detekcije: Gdje AI i dalje griješi
Trenutni AI sustavi postižu točnost između 78% i 94% na platformama poput Facebooka, TikToka i X-a, ali istraživanje iz travnja 2025. pokazuje da vodući chatbotovi ponavljaju lažne tvrdnje u čak 30,9% slučajeva.
NewsGuard je u travnju 2025. testirao 11 vodećih AI chatbotova, uključujući ChatGPT-4 (OpenAI) i Claude (Anthropic). Rezultati su zabrinjavajući: kolektivno su ponavljali lažne tvrdnje u gotovo trećini slučajeva. To znači da AI nije samo alat za detekciju - već i glavni vektor širenja fake newsa.
| AI sustav | Točnost detekcije | Glavni problem |
|---|---|---|
| Meta AI (Facebook/Instagram) | 82-89% | Loše razumijevanje satire |
| TikTok moderacija | 78-84% | Kontekstualni sadržaj |
| X (Twitter) Community Notes | 85-91% | Brzina širenja prije detekcije |
| ChatGPT-4 i Claude | 69% (generiranje) | Halucinacije i ponavljanje lažnih tvrdnji |
Zašto AI nije objektivan fact-checker
Studija Sveučilišta u Montrealu iz 2026. otkriva kontraintuitivnu istinu: AI detektori ne provjeravaju činjenice prema stvarnosti kao što to rade ljudski novinari. Umjesto toga, oni računaju vjerojatnosti na temelju svojih trening podataka. To znači da AI često djeluje kao "ogledalo", reproducirajući zapadnjačke, geografske i rodne pristranosti ugrađene u algoritme.
Primjer iz Hrvatske: AI sustav treniran pretežno na engleskom jeziku i zapadnim izvorima ima poteškoće s prepoznavanjem dezinformacija specifičnih za Balkan, poput lažnih vijesti o EU fondovima ili manipulacija oko hrvatske energetske politike.
Što Hrvatska radi: Regulativa i fact-checking infrastruktura
Hrvatska agencija za mrežne djelatnosti (HAKOM) djeluje kao nacionalni koordinator za digitalne usluge prema EU Digital Services Act (DSA), nadzirući kako platforme rukovode ilegalnim sadržajem i dezinformacijama.
EU AI Act i obveze transparentnosti
Do kolovoza 2026. godine, članak 50 EU AI Acta postaje strogo primjenjiv zakonski zahtjev u cijeloj EU, uključujući Hrvatsku. Pružatelji AI sustava moraju osigurati da njihovi outputi budu označeni u strojno čitljivom formatu (npr. watermarking), a korisnici moraju jasno otkriti kada je sadržaj deepfake.
Kazne za nepoštivanje su drastične: do 15.000.000 EUR ili 3% ukupnog godišnjeg svjetskog prometa tvrtke, ovisno što je veće. [Izvor: EU AI Act, 2024]
Faktograf i partnerstva s platformama
Faktograf ostaje primarna hrvatska organizacija za provjeru činjenica, u partnerstvu s Metom (Facebook/Instagram) i TikTokom za razotkrivanje deepfakeova i AI-generiranih prevara. Tijekom izbora 2024./2025., Faktograf je identificirao i označio preko 200 AI-generiranih lažnih objava, uglavnom povezanih s političkim kampanjama.
OECD smjernice i međunarodna suradnja
OECD-ove ažurirane smjernice za 2024./2025. naglašavaju da vlade moraju graditi društvenu otpornost protiv AI dezinformacija. OECD upozorava da AI algoritmi mogu nenamjerno pojačati lažne vijesti i naglašava potrebu za međunarodnom suradnjom u razvoju interoperabilnih standarda za AI watermarking. [Izvor: OECD AI Policy Observatory, 2025]
Praktični savjeti za hrvatske građane: Kako prepoznati AI lažnjake
Do 2026. godine, mnogi mid-range i flagship pametni telefoni imaju ugrađenu on-device AI detekciju koja skenira za mikro-izraze lica i sintetičke glasovne obrasce tijekom poziva i video reprodukcije.
Oprez kod glasovnih prijevara
Hrvatski građani trebaju biti iznimno skeptični prema hitnim telefonskim pozivima od "članova obitelji" ili "bankovnih službenika" koji traže transfere novca. AI kloniranje glasa zahtijeva samo nekoliko sekundi originalnog audio zapisa za stvaranje uvjerljive lažnjake.
Primjer iz prakse: U Zagrebu je u ožujku 2025. zabilježena serija prijevara gdje su napadači koristili AI klonirane glasove da se predstave kao roditelji u nevolji, tražeći hitne uplate od 500-2.000 EUR.
Provjera izvora prije dijeljenja
- Koristite reverse image search (Google Images, TinEye) za provjeru podrijetla fotografija
- Provjerite lokalne verificirane izvore kao što su Faktograf.hr ili Klimatski.hr
- Budite skeptični prema senzacionalnim političkim ili kriznim sadržajima na WhatsAppu ili Viberu
- Potražite originalni izvor - ne dijelite screenshot ili repost bez provjere
- Obratite pažnju na URL adrese: lažne stranice često imitiraju legitimne medije s minimalnim razlikama (npr. "index-hr.com" umjesto "index.hr")
Budućnost AI detekcije: Što nas čeka u 2026. i dalje
Watermarking tehnologije poput Google SynthID predstavljaju ogroman korak naprijed, ali pravni stručnjaci i International Bar Association upozoravaju da je watermarking krhak - loši akteri mogu ukloniti metapodatke, a državno sponzorirane kampanje koriste open-source AI modele koji ne provode watermarking pravila.
OpenAI i kolaps Sora aplikacije
Početkom 2026. godine, OpenAI je morao zatvoriti svoju dugo očekivanu aplikaciju za generiranje videa, Sora, samo nekoliko mjeseci nakon lansiranja. Digitalni forenzički stručnjaci primijetili su da je aplikacija postala "one-stop AI slop shop" koja je preplavila fact-checkere hiper-realističnim ratnim dezinformacijama i političkim deepfakeovima. [Izvor: OpenAI Blog, 2026]
Ovaj slučaj ilustrira ključni problem: brzina kojom AI može generirati lažni sadržaj daleko nadmašuje brzinu kojom ga možemo detektirati i moderirati.
Kontraintuitivan nalaz: Znanje da je lažno ne zaustavlja utjecaj
Izvješće iz 2026. otkriva zabrinjavajuću činjenicu: politički deepfakeovi ostaju visoko uvjerljivi čak i kada gledatelj zna da nisu stvarni. AI-generirani avatari i idealizirane slike političara stvaraju emocionalnu rezonanciju ("osjećaju se istinito") koja zaobilazi logičku provjeru činjenica, čineći ih izuzetno učinkovitim propagandnim alatima.
Zaključak: Trka između mača i štita
Borba protiv AI-generiranih lažnih vijesti postala je tehnološka utrka u kojoj obje strane - kreatori i detektori dezinformacija - koriste istu temeljnu tehnologiju. Hrvatska, kao dio EU regulatornog okvira, ima pristup najnaprednijim alatima i zakonima, ali uspjeh ovisi o tri ključna faktora:
- Edukacija javnosti - građani moraju razumjeti kako AI funkcionira i razviti kritičko mišljenje
- Transparentnost platformi - društvene mreže moraju aktivno surađivati s lokalnim fact-checkerima
- Međunarodna suradnja - dezinformacije ne poznaju granice, stoga ni obrana ne može biti nacionalna
Prema OECD-u, budućnost nije u potpunom eliminiranju lažnih vijesti - to je nerealno. Budućnost je u izgradnji društvene otpornosti gdje građani, novinari, tehnologija i zakoni zajedno stvaraju ekosistem u kojem dezinformacije imaju kraći životni vijek i manji utjecaj.
Često postavljana pitanja
Kako mogu provjeriti je li slika ili video AI-generirani?+
Koristite reverse image search alate (Google Images, TinEye) ili specijalizirane AI detektore kao što je Sensity AI. Obratite pažnju na neprirodno glatku kožu, čudne deformacije u pozadini i nekonzistentno osvjetljenje. Provjerite izvor objave i potražite originalni kontekst.
Što je SynthID i kako funkcionira?+
SynthID je Google-ov alat koji ugrađuje nevidljive digitalne vodene žigove direktno u piksele AI-generiranih slika i videa. Za razliku od tradicionalnih watermarkova, SynthID preživljava uređivanje, kompresiju i rezanje slike, omogućavajući verifikaciju podrijetla sadržaja.
Zašto AI chatbotovi i dalje šire lažne informacije?+
AI chatbotovi ponekad 'haluciniraju' — generiraju uvjerljivo zvučeće, ali potpuno izmišljene informacije. Istraživanje iz 2025. pokazuje da vodući chatbotovi ponavljaju lažne tvrdnje u 30,9% slučajeva jer ne provjeravaju činjenice prema stvarnosti, već generiraju odgovore na temelju statističkih obrazaca u trening podacima.
Koliko košta kršenje EU AI Act obveza u Hrvatskoj?+
Tvrtke koje ne poštuju obveze transparentnosti (npr. ne označavaju deepfake sadržaj) mogu dobiti kazne do 15.000.000 EUR ili 3% ukupnog godišnjeg svjetskog prometa, ovisno što je veće. Ove kazne primjenjuje HAKOM kao nacionalni koordinator za digitalne usluge.
Gdje mogu prijaviti lažne vijesti u Hrvatskoj?+
Lažne vijesti možete prijaviti organizaciji Faktograf putem njihove web stranice faktograf.hr. Također, na Facebook, Instagram, TikTok i X platformama možete koristiti ugrađene opcije za prijavu dezinformacija i deepfake sadržaja.
Izvori i reference
- EU AI Act(regulativa)
- OECD AI Policy Observatory(policy)
- Google AI Blog(izvor)
- OpenAI Blog(izvor)
- Anthropic Blog(izvor)
Povezani članci
Kako AI olakšava brzo učenje stranih jezika: Revolucija u obrazovanju
Kako AI ubrzava i olakšava montažu videozapisa
Kako AI stvara realistične slike iz tekstualnih uputa: Tehnologija, zakoni i cijene
Kako AI automatizira korisničku podršku putem pametnih chatbota
Kako AI pomaže u vođenju osobnih financija i štednji