Istraživač, medijski ekspert i predsjednik udruženja NarativAI - Centar za medijske inovacije na Balkanu, Aleksandar Manasiev, ocijenio je u razgovoru za Portal RTCG da prvi video-snimci koji se pripisuju odbjeglom Milošu Medenici pokazuju "snažne indikacije" da je riječ o AI-generisanom sadržaju, uz procijenjenu vjerovatnoću od oko 80 odsto, ali upozorava da bez originalnih fajlova nije moguće donijeti apsolutan zaključak.
Foto: X screenshot/ Istina @Istina134696
Manasiev naglašava da kod procjene autentičnosti ne postoji jedan jedini dokaz koji sam po sebi potvrđuje da je sadržaj generisan vještačkom inteligencijom.
"Ne postoji jedan indikator koji sam po sebi predstavlja dokaz. Pouzdana procjena se uvijek zasniva na kombinaciji više elemenata - vizuelnih, audio i kontekstualnih. Kod videa se analizira ponašanje lica u odnosu na glavu i okruženje, sinhronizacija pokreta usana sa govorom, stabilnost kože, očiju i svjetla, kao i vremenska konzistentnost kroz više kadrova", navodi Manasiev.
Problem, dodaje, nastaje kada su snimci snažno kompresovani, snimani u slabom osvjetljenju i više puta ponovo objavljivani.
"Tada se dio forenzičkih tragova gubi ili postaje teško uočljiv", ističe Manasiev.
Audio još osjetljiviji od videa
Prema njegovim riječima, audio segment je često još osjetljiviji za manipulaciju. Kao ilustraciju navodi slučaj slovačke novinarke Monike Todove iz lista "Denník N", gdje je AI-generisani audio korišćen kako bi se stvorio utisak autentičnog razgovora.
"Savremeni alati mogu veoma uvjerljivo imitirati glas, intonaciju i emocionalni ton, ali i dalje griješe u suptilnim detaljima – u ritmu govora, pauzama, disanju i kontekstu u kojem se pojedine rečenice koriste. Upravo su te nijanse ključne za ozbiljnu analizu, ali ih nije lako prepoznati bez iskustva i uporednog materijala", kaže Manasiev.
On upozorava i na mogućnost sofisticiranije manipulacije, da jedna osoba pročita tekst na čistom crnogorskom jeziku, sa lokalnim dijalektom i prirodnom intonacijom, nakon čega se taj snimak koristi za treniranje modela koji imitira glas druge osobe.
"Dijalekat, ritam i naglasak već postoje u osnovnom snimku, dok se AI koristi isključivo za promjenu glasa. Rezultat može biti vrlo uvjerljiv, ali i izrazito manipulativan sadržaj", navodi Manasiev.
Prvi snimci Medenice - 80 odsto vjerovatnoće AI manipulacije
Govoreći konkretno o snimcima Miloša Medenice, Manasiev kaže da analiza prvih video-klipova ukazuje na snažne indikacije da je riječ o AI-generisanom sadržaju.
"Procijenjena vjerovatnoća je oko 80 odsto. Kod kasnijih snimaka ti indikatori su slabije izraženi, ali to ne predstavlja dokaz njihove autentičnosti. Naprotiv, pokazuje koliko kvalitet izvornog materijala, nivo kompresije i uslovi snimanja utiču na mogućnost pouzdane detekcije", ističe Manasiev.
Prema njegovim riječima, sve upućuje na to da su kreatori videa dobro upoznati sa procesom verifikacije.
"Snažna kompresija i slabo osvjetljenje, gotovo kao da su snimci napravljeni mobilnim telefonom starim deset godina, mogu biti svjesno korišćeni kako bi se otežalo otkrivanje eventualne manipulacije", kaže Manasiev.
Paradoks je, dodaje, u tome što takav kvalitet materijala onemogućava da se sa sigurnošću dokaže i da su snimci autentični, ali i da su lažni.
- To je tipičan efekat namjerno manipulisanog načina distribucije sadržaja - navodi Manasiev.
Kontekst i kanal distribucije ključni za procjenu
Manasiev naglašava da tehnička analiza nije dovoljna bez razmatranja šireg konteksta.
"Treba analizirati da li se osoba koja se pojavljuje u snimcima ranije oglašavala na ovakav način, da li je imala praksu objavljivanja video-poruka ili javnih komentara, i ako nije, zašto se to dešava upravo sada", objašnjava Manasiev.
Jednako je važno, dodaje, pitanje kanala distribucije.
Ima li stresa i besa u bezbjedonosnom sektoru cg? Ostavke demokrate jebiguzi (becic, bogdanovic, saranovic) i scepanovic! pic.twitter.com/AFpCJ3Qlfm
— Istina (@Istina134696) February 1, 2026
"U konkretnom slučaju sadržaj se ne pojavljuje putem ranije poznatog ili direktno povezanog kanala te osobe, već preko profila na platformi X, pri čemu nije jasno ko stoji iza tog naloga i sa kojom namjerom. Takva kombinacija nejasnog izvora, vremenskog momenta i tehničkih ograničenja materijala dodatno pojačava sumnju i ukazuje na potrebu za krajnje opreznim tumačenjem sadržaja", ističe Manasiev.
Tehnologija napreduje brže od detekcije
On podsjeća da su danas AI-generisane fotografije često lakše uočljive zbog anatomski nelogičnih detalja ili nepravilnih odraza, dok su video i audio znatno kompleksniji jer uključuju kretanje i kontinuitet kroz vrijeme.
"Ključ je u kombinaciji tehničkih alata i ljudske forenzičke procjene. Međutim, većina ozbiljnijih alata se plaća i zahtijeva tehničko znanje", navodi Manasiev.
Dodatni problem je što javnost gotovo nikada nema pristup originalnim fajlovima, već samo kompresovanim verzijama sa društvenih mreža, bez metapodataka.
"Kada postoji originalni materijal, analiza može biti relativno brza i precizna. Kada se radi o re-uploadovanim i kompresovanim snimcima bez izvora, proces se često završava procjenom vjerovatnoće, a ne apsolutnim zaključkom. U takvim slučajevima govorimo o procentima, ne o potpunoj sigurnosti", objašnjava Manasiev.
"Deepfake" u uživo prenosima moguć, ali...
Kada je riječ o primjeni "deepfake" tehnologije u uživo prenosima, Manasiev navodi da je teoretski moguće izvoditi zamjenu lica (face-swap) i sintetički generisati govor u realnom vremenu.
Ipak, upozorava da takvi scenariji zahtijevaju ozbiljnu tehničku infrastrukturu i strogo kontrolisane uslove snimanja.
"U praksi se zato često pribjegava niskoj rezoluciji, slabom osvjetljenju i ograničenom kadru, kako bi se prikrili tehnološki nedostaci i otežalo uočavanje eventualnih nepravilnosti", navodi Manasiev.
Relevantne institucije treba da se oglase
On smatra da bi u ovakvim situacijama trebalo da se oglase relevantne institucije, poput centara za sajber bezbjednost ili nacionalnih CERT-ova.
"Njihova uloga nije da presude, već da stručno objasne šta se može, a šta ne može pouzdano utvrditi, čime se smanjuje prostor za spekulacije i dezinformacije u javnosti", kaže Manasiev.
Ključni problem, naglašava Manasiev, predstavlja činjenica da tehnologija za kreiranje "deepfake" sadržaja postaje sve dostupnija i kvalitetnija, dok sistemi za njihovo otkrivanje ne napreduju istim tempom.
"Upravo taj nesklad danas je najveći izazov, ne samo za novinare i istraživače, već i za institucije i društvo u cjelini", zaključio je Manasiev.
NAJGORE JE KADA LAZ POSTNE OBRAZAC!!!
— Istina (@Istina134696) February 9, 2026
Necemo dozvoliti da istinu zamijene neistine iz DEMOKRATSKE CG koji ne smiju da se suoce sa odgovoroscu!
Vi vjernici ???????????????? pic.twitter.com/Vcbj1x8Xxl
Podsjetimo, do sada je na jednom profilu platforme X objavljeno sedam videa sa navodnim Milošem Medenicom.
Iz Uprave policije su tim povodom reagovali tvrdeći da je video lažan.
On se od 28. januara nalazi u bjekstvu, nakon što ga je Viši sud u Podgorici u prvostepenom postupku osudio na deset godina i dva mjeseca zatvora.
KOMENTARI (0)