U eri u kojoj se granica između stvarnog i lažnog sve brže gubi, najnoviji napredak u AI-generisanju video sadržaja predstavlja ozbiljnu bezbjednosnu prijetnju. Tehnologije koje su do juče bile domen umjetničkih eksperimenata sada omogućavaju stvaranje video snimaka koji izgledaju potpuno autentično — čak i kad su potpuno izmišljeni.
Redakcija portala Interno je identifikovala niz alata koji mogu proizvesti video sadržaj koji teško može da se razlikuje od stvarnog materijala i za koje se, po neformalnim ali dobro obavještenim izvorima, najčešće koriste:
Google Veo 3 — model sposoban da iz tekstualnih opisa proizvede video scene sa realistično prikazanim događajima i zvukom koji su izuzetno realistični. Upozoravamo da ovaj model može biti iskorišćen za proizvodnju provokativnih, manipulativnih ili netačnih snimaka koji se šire brzinom informacija, o čemu je redakcija portala Interno već započela feljton objava.
OpenAI Sora — platforma koja omogućava generisanje video klipova kroz AI i koja se već koristi za stvaranje “AI-lica” u kratkim scenama. Iako OpenAI uvodi zaštite protiv zloupotrebe, korisnici pronalaze načine da zaobiđu ograničenja i to je vrlo lako učiniti, sideći po našim izvorima i dostupnim podacima.
Pored prerhodnih komercijalnih proizvoda poput Sore ili Veo, u AI zajednici se spominju alati koji omogućavaju generisanje deepfake videa visokog kvaliteta uz minimalnu tehničku stručnost korisnika pa su tako čak i javno dostupni pozivi za trenimge, obuke i edukacije o korištenju AI programa.
Ovi sistemi koriste napredne neuralne mreže (npr. GAN ili transformer-modeli) da bi proizveli video i audio koji često pogađa percepciju kao autentičan — čak i kad nema originalnog snimka. Dakle, ponovićemo da su AI kreirani.sadržaji toliko realistični da se bez izvornog snimka nikako ne može sa 100-postotnom sigurnošću utvrditi da se radi o vještački generisanom sadržaju.
AI sadržaji imaju izuzetno opasne bezbjednosne implikacije i ne oredstavljaju samo ličnu prijetnju već se radi i o prijetnji javnom poretku.
AI-generisane lažne snimke mogu biti korišćene za niz opasnih ciljeva:
Manipulacija javnim mnjenjem i dezinformacije — deepfake videa mogu biti distribuirani kako bi izazvali paniku, narušili povjerenje u institucije ili čak uticali na izbore i političke procese.
Kibernetičke prevare i finansijski kriminal — kriminalne grupe koriste AI generisane audio i video laži da izvrše sofisticirane prevare protiv banaka, pojedinaca i firmi.
Privatnost i lična šteta — neautorizovana upotreba tuđeg lika u eksplicitnom ili kompromitujućem video materijalu koristi se za ucjenu i narušavanje reputacije i skoro nikad se ne može utvrditi odakle je taj sadržaj potekao.
Erozija povjerenja – stanovništvo je sve više svjesno da svaku sliku ili video može biti lažan, što dovodi do “post-istinog” okruženja u kojem istinu teško razlikovati od fabrikacije ali kada je riječ o ličnom nivou nikad se ne može otkloniti sumnja da li ke predmetni sadržaj istinit ili nije.
Često postavljano litanje je da li državne službe i neformalne grupe koriste ove alate?
Do danas ne postoje javno potvrđeni dokazi da su službe za bezbjednost ili obavještajne agencije zvanično usvojile određene AI video generatore kao standardno sredstvo, ali indirektni podaci i incidenti ukazuju na realnu zloupotrebu:
Manipulativni AI “deepfake” sadržaji već su se pojavili u političkom i medijskom prostoru, kao što je slučaj sa simtetičkim video zapisom koji su crnogorske bezbjednosne službe nazvale AI-generisanim i manipulativnim u kontekstu pokušaja diskreditacije državnih institucija. U ovom slučaju se najvjerovatnije radi o kriminalnim grupama kojima se pripisuju i određeni neformalni uticaji na javnost i činioce putem kojih je moguće plasirati sadržaj koji bi ubrzo postao viralan.
Regulatorna tijela i pravosudne institucije širom svijeta, uključujući Ujedinjeno Kraljevstvo, razmatraju i pokreću istrage u vezi s korišćenjem ili zloupotrebom AI alata (npr. istrage kompanija čiji AI alati generišu neautorizovani sadržaj) ne bi li pokušali smanjiti mogućnost zloupotrebe ovih alata.
U javnosti se nerijetko pojavljuju komentari da postoje pojedinci koji nisu zvanično aktivni službenici bezbjednosnih ili tajnih operativnih struktura koji imaju znanje i kompetencije da već postojeće AI generatore unaprijede ali to nije zvanično potvrđeno.
Ove prakse pokazuju da alat koji nastaje za legalnu kreativnu ili komercijalnu upotrebu lako prelazi u arenu zloupotrebe bez ikakvog nadzora ili regulatorne kontrole i visok stepen tvrdnje da se ne može utvrditi sa 100-procentnom sigurnošću da li je neki sadržaj izvorno realan ili predstavlja ,,deep fake“ sadržaj.

