Kako AI otkriva lažne vijesti i deepfake sadržaj u 2026. godini

Što su deepfake i lažne vijesti generirane AI-jem
Deepfake je sintetički medijski sadržaj — video, audio ili slika — koji umjetna inteligencija generira ili manipulira tako da izgleda autentično, ali je lažan. U 2025. godini volumen deepfake sadržaja porastao je za nevjerojatnih 900%, što je dovelo do globalne eksplozije dezinformacija, financijskih prijevara i uznemiravanja.
Prema istraživanju provedenom početkom 2026. godine, čak 71% korisnika interneta priznaje da ima malo ili nimalo znanja o tome što su deepfake-ovi i kako ih prepoznati. Istovremeno, deepfake tehnologija postala je aktivno oružje u demokratskim procesima — tijekom irskih predsjedničkih izbora 2025. godine objavljen je lažni video koji prikazuje kandidata kako se povlači iz utrke samo nekoliko dana prije glasovanja. U Nizozemskoj su stotine sintetičkih slika korištene za napade na političke figure.
Hrvatska, kao članica Europske unije, trenutno radi na implementaciji EU AI Act-a kroz nacionalno zakonodavstvo. Vladin radni tim i organizacije civilnog društva poput Politiscope-a aktivno se zalažu za snažne zaštitne mehanizme protiv zlouporabe AI tehnologija.
Kako AI sustavi detektiraju lažne slike i videozapise
Detekcija deepfake sadržaja temelji se na tri glavne tehnologije: digitalni vodeni žigovi, analiza metapodataka i probabilistički klasifikatori. Svaka ima svoje prednosti, ali nijedna nije savršena.
Digitalni vodeni žigovi (watermarking)
Google DeepMind razvio je SynthID tehnologiju koja ugrađuje nevidljive digitalne vodene žigove izravno u piksele slika, okvire videa, audio valove i tekst. Prema Google AI blogu, SynthID je otporan na obrezivanje i blaga uređivanja, ali ekstremna kompresija ili teške transformacije mogu oslabiti signal. Korisnici mogu provjeriti sadržaj pomoću SynthID Detectora, koji je javno dostupan od svibnja 2025. godine.
Međutim, istraživači su u 2026. godini demonstrirali tehnike za reverzno inženjerstvo i zbunjivanje nevidljivih vodenih žigova, što dokazuje da nijedno tehničko rješenje nije potpuno sigurno.
C2PA standard i metapodaci
Coalition for Content Provenance and Authenticity (C2PA) razvila je standard koji prilaže otporne na manipulaciju metapodatke — svojevrsnu "nutritivnu deklaraciju" — digitalnom sadržaju. OpenAI, Google, Adobe i druge tvrtke implementiraju C2PA standard kako bi korisnici mogli vidjeti točno kako i kada je sadržaj kreiran ili izmijenjen. Sadržaj označen C2PA logosom "cr" omogućuje transparentnost o izvoru.
Probabilistički klasifikatori
OpenAI-jev DALL-E Detection Classifier može prepoznati 98,8% slika koje je generirao vlastiti DALL-E 3 model. Međutim, otkriva samo 5-10% slika generiranih drugim AI modelima, što ukazuje na značajan jaz u cross-platform detekciji. Kao što ističu OpenAI istraživači, detekcija deepfake-a je probabilistička i nikada ne može biti 100% savršena.
| Tehnologija | Prednosti | Ograničenja |
|---|---|---|
| Digitalni vodeni žigovi (SynthID) | Nevidljivi, otporni na blaga uređivanja, provjerljivi javnim alatima | Ekstremna kompresija uništava signal, moguće reverzno inženjerstvo |
| C2PA metapodaci | Potpuna transparentnost izvora, otpornost na manipulaciju | Zahtijeva dobrovoljnu implementaciju, nije univerzalno prihvaćen |
| AI klasifikatori | Visoka točnost za vlastite modele (98,8%) | Loša cross-platform detekcija (5-10%), kratko vrijeme učinkovitosti |
Kako AI detektira lažne tekstove i dezinformacije
Detekcija AI-generiranog teksta znatno je teža od detekcije slika i videa. Google istraživači otkrili su da primjena vodenih žigova na tekst smanjuje faktualnu točnost odgovora — mijenjanje izbora riječi kako bi se ugradio žig narušava preciznost informacija.
Dodatno, jednostavno prevođenje teksta (primjerice, s engleskog na hrvatski) ili opsežno parafraziranje potpuno uništava vodeni žig. Zbog toga su trenutni sustavi za detekciju AI teksta manje pouzdani od onih za multimedijski sadržaj.
Natural Language Processing (NLP) analizatori
NLP sustavi analiziraju stilometrijske značajke — obrazac ponavljanja riječi, sintaktičku složenost, koherenciju argumenata. Međutim, kako Large Language Modeli (LLM) postaju sofisticiraniji, njihov tekst postaje sve sličniji ljudskom pisanju.
Fact-checking baze podataka
Organizacije poput OECD AI Policy Observatoryja naglašavaju da je borba protiv dezinformacija više pitanje upravljanja i procjene rizika nego tehničke detekcije. OECD AI Incidents Monitor upozorava da je zlouporaba generativne AI izravna prijetnja demokratskom povjerenju.
EU AI Act i obveze u Hrvatskoj
Hrvatska implementira EU AI Act, koji od 2. kolovoza 2026. godine zakonski obvezuje sve subjekte koji koriste AI sustave za generiranje ili manipulaciju slika, videa ili zvuka da jasno označe da je sadržaj umjetno generiran.
Novčane kazne za nepridržavanje
Prema EU AI Act-u, nepridržavanje obveza transparentnosti i označavanja može rezultirati administrativnim kaznama do 15 milijuna eura ili 3% globalnog godišnjeg prometa tvrtke — što god je veće. Korištenje zabranjenih AI praksi može dovesti do kazni do 35 milijuna eura ili 7% globalnog prometa.
Zabrana seksualiziranih deepfake-ova
U ožujku 2026. godine, zakonodavci EU-a odobrili su zabranu AI sustava koji generiraju seksualizirane deepfake slike bez pristanka (tzv. "nudification" aplikacije). Ova mjera pruža snažnu zaštitu građanima od digitalnog nasilja i uznemiravanja.
Code of Practice
Europska komisija finalizira "Code of Practice on Transparency of AI-Generated Content" (očekuje se sredinom 2026. godine). Ovaj dokument pruža tehničke smjernice o tome kako implementirati vodene žigove i metapodatke u skladu s AI Act-om.
Praktični savjeti za hrvatske građane
Prosječan korisnik može naučiti prepoznati deepfake sadržaj kroz kombinaciju tehničkih alata i kritičkog razmišljanja. Evo konkretnih koraka:
- Koristite portale za detekciju: Google SynthID Detector omogućuje upload medija i provjeru sadrži li Google AI vodeni žig. Također možete pitati Gemini aplikaciju je li slika ili audio generiran Google AI-jem.
- Tražite C2PA logo: Pri čitanju vijesti ili gledanju slika, provjerite postoji li "cr" logo. Klik na logo otkriva metapodatke koji pokazuju kako je sadržaj nastao.
- Analizirajte vizualne i audio tragove: Sigurnosni stručnjaci savjetuju da obratite pažnju na neprirodno fizičko ponašanje — nedostatak odraza u naočalama, neslaganje osvjetljenja i sjena, preglađenu kožu, neprirodno treptanje, robotsku sinkronizaciju usana.
- Prijavite zlonamjerni sadržaj: Ako naiđete na zlonamjerni deepfake (npr. prijevaru ili seksualizirani sadržaj bez pristanka), prijavite ga izravno platformi. Prema EU Digital Services Act-u (DSA), platforme su zakonski obvezne brzo moderirati i ukloniti nezakonit sadržaj.
Zašto detektori nisu savršeni: kontraintuitivna otkrića
Postoji nekoliko raširenih zablude o detekciji deepfake-a koje mogu dovesti do lažnog osjećaja sigurnosti.
Mit 1: Postoji univerzalni detektor koji hvata sve deepfake-ove
Detekcija je visoko fragmentirana. Detektor koji je izgradio OpenAI lako će uhvatiti DALL-E slike, ali neće detektirati slike iz Midjourney-a ili open-source modela. Ako detektor kaže "nije označeno", to ne znači da je slika prava fotografija — već samo da nije generirana specifičnim AI-jem te tvrtke.
Mit 2: Vodeni žigovi su trajni
Unatoč tvrdnjama o otpornosti na manipulaciju, neovisni developeri u 2026. godini demonstrirali su tehnike za reverzno inženjerstvo i zbunjivanje nevidljivih vodenih žigova poput SynthID-a, dokazujući da nijedno tehničko rješenje nije potpuno neprobojno.
Paradoks: Detektori zapravo čine deepfake-ove boljima
U machine learningu, deepfake generatori i detektori često se treniraju zajedno u "adversarial" petlji. Kada se objavi novi detektor, zlonamjerni akteri ga koriste za treniranje svojih generatora da ga zaobiđu. Stoga je visoko precizan detektor obično učinkovit samo kratko vrijeme prije nego što deepfake-ovi evoluiraju kako bi ga pobijedili.
Uloga međunarodnih organizacija i AI tvrtki
Vodeće AI tvrtke formiraju saveze za dijeljenje sigurnosnih istraživanja i proaktivno sprječavanje generiranja štetnih deepfake-ova.
Anthropic, Google i OpenAI osnovali su partnerstva za razmjenu rezultata "red-teaming" testiranja — simuliranih napada na AI sustave prije nego što se objave javnosti. Prema Anthropic blogu, cilj je identificirati ranjivosti i spriječiti zlouporabu prije nego što modeli dođu u ruke korisnika.
OECD AI Policy Observatory naglašava da tretiranje dezinformacija mora biti pitanje upravljanja i procjene rizika, a ne samo tehnička detekcija. Njihov AI Incidents Monitor dokumentira slučajeve zlouporabe širom svijeta kako bi informirao politiku i regulativu.
Budućnost detekcije: što nas čeka
Detekcija deepfake-a ulazi u fazu "utrke u naoružanju" između generatora i detektora. Stručnjaci predviđaju nekoliko trendova:
- Multimodalna detekcija: Kombiniranje analize slike, zvuka i teksta za holistički pristup
- Blockchain verifikacija: Korištenje distribuirane tehnologije za nepromjenjive zapise izvora sadržaja
- Edukacija javnosti: Masovne kampanje medijske pismenosti kako bi građani razvili kritičko razmišljanje
- Regulatorna harmonizacija: Globalna usklađivanje standarda za označavanje i transparentnost AI sadržaja
Hrvatska, kao dio EU ekosustava, igrat će ključnu ulogu u implementaciji ovih standarda. Nacionalno zakonodavstvo koje se trenutno razvija morat će balansirati između inovacija i zaštite građana.
Često postavljana pitanja
Kako mogu provjeriti je li slika deepfake?+
Koristite Google SynthID Detector ili potražite C2PA "cr" logo na slici. Također analizirajte vizualne detalje poput odraza u naočalama, sjena i prirodnosti pokreta. Ako detektor ne pronađe vodeni žig, to ne znači da slika nije AI-generirana — samo da nije napravljena tim specifičnim alatom.
Što kaže EU AI Act o deepfake sadržaju?+
Od 2. kolovoza 2026. godine, svi subjekti u Hrvatskoj i EU-u moraju jasno označiti AI-generirani ili manipulirani sadržaj. Nepridržavanje može rezultirati kaznama do 15 milijuna eura ili 3% globalnog prometa. Seksualizirani deepfake-ovi bez pristanka potpuno su zabranjeni.
Zašto detektori AI teksta ne funkcioniraju dobro?+
Vodeni žigovi u tekstu smanjuju faktualnu točnost, a prevođenje ili parafraziranje potpuno ih uništava. LLM modeli postaju sve sofisticiraniji i pišu sve sličnije ljudima, što otežava razlikovanje. Trenutno ne postoji pouzdan univerzalni detektor za AI tekst.
Gdje prijaviti zlonamjerni deepfake u Hrvatskoj?+
Prijavite sadržaj izravno platformi na kojoj ste ga vidjeli (Facebook, YouTube, TikTok itd.). Prema EU Digital Services Act-u, platforme su obvezne brzo reagirati. Za ozbiljne slučajeve (prijevara, seksualno uznemiravanje), kontaktirajte policiju ili Ured pučke pravobraniteljice.
Koliko su točni trenutni AI detektori?+
Točnost varira dramatično. OpenAI detektor prepoznaje 98,8% vlastitih DALL-E slika, ali samo 5-10% slika iz drugih izvora. Google SynthID je otporan na blaga uređivanja, ali ekstremna kompresija uništava signal. Nijedan detektor nije savršen, a novi deepfake-ovi brzo evoluiraju kako bi zaobišli postojeće sustave.
Izvori i reference
- EU AI Act - Artificial Intelligence Act(regulativa)
- OECD AI Policy Observatory(policy)
- Google AI Blog - SynthID Technology(izvor)
- OpenAI Blog - Content Authenticity(izvor)
- Anthropic - AI Safety Research(izvor)
Povezani članci
Kako AI pomaže u pisanju savršenog životopisa u 2026. godini
Kako AI ubrzava i automatizira montažu videozapisa u 2026. godini
Kako AI pomaže u učenju stranih jezika kod kuće: Revolucija u dnevnoj sobi
Kako AI pomaže u planiranju kućnog budžeta i štednji u 2026. godini
Kako AI organizira vaše dnevne obaveze i sastanke: Vodič za 2026.