Sa visokim stepenom tehničke sigurnosti danas se može tvrditi da napredni sistemi vještačke inteligencije imaju sposobnost generisanja eksplicitnih video i tonskih sadržaja, uključujući realistične prikaze ljudskog lika, glasa i ponašanja — čak i u potpunom odsustvu stvarnog snimanja.
Međutim, čak i najmodernija digitalna forenzika suočava se sa ozbiljnim ograničenjima:
Bez originalnog snimka ili izvornog materijala koji se može uporediti sa sumnjivim video ili audio zapisom, ne postoji metoda koja može sa apsolutnom sigurnošću potvrditi da li je sadržaj AI‑generisan ili autentičan.
Dakle, ukoliko forenzičar nema pristup samom alatu kojim je video napravljen ne postoji 100-postotna mogućnost da se utvrsi da li se radi o AI generisanom video sadržaju.
Forenzički alati mogu otkriti sumnjive artefakte, neusklađenosti u pikselima, svjetlosnim sjenama ili audio spektru, ali nijedan test ne daje 100% sigurnost bez originalnog izvora.
Ovo pravno i bezbjednosno predstavlja kritičnu zonu: lažni video može izgledati dovoljno vjerodostojno da utiče na javno mnjenje, pravne procese ili lični ugled, a dokazivanje njegovog AI porijekla je izuzetno složeno.
AI‑generisani eksplicitni sadržaji mogu se koristiti za ucjene, kompromitacije i diskreditaciju.
Kreiranje realističnog lažnog dokaza u digitalnom formatu omogućava manipulaciju institucijama i javnošću, čak i kada ne postoji stvarni snimak.
Ograničenja forenzičkih metoda znače da institucije moraju tretirati AI‑video kao potencijalno opasan čak i kada nije pravno potvrđen kao lažan.
U savremenoj digitalnoj bezbjednosti nije dovoljno znati da AI može kreirati eksplicitni sadržaj. Kritično je razumjeti da bez izvornog snimka ne postoji apsolutna forenzička potvrda autentičnosti, što čini AI‑generisani video moćnim instrumentom u oblasti dezinformacija, ucjena i destabilizacije i da se ipak na kraju krajeva sve svodi na povjerenje i vjerovanje da li je tema snimka uopšte svojstvena akterima.

