Deepfake: Lažne pokretne slike
Iza kovanice deepfake kriju se lažni video-snimci generisani korišćenjem algoritama veštačke inteligencije, koji postaju sve prisutniji na raznim medijima i Internet platformama. Kako vreme teče, tako su ovi falsifikati sve ubedljiviji. Ako ste na Internetu videli provokativne snimke u kojima se pojavljuju Obama, Tramp, Putin, Tom Kruz ili Paris Hilton, videli ste deepfake.
Deepfake koristi oblik veštačke inteligencije koji se zove mašinsko učenje da bi napravio slike i video-sekvence lažnih događaja (npr. lažnih izjava poznatih političara, pevača, glumaca) ili da bi anonimnom korisniku dao mogućnost da sebe učini „glumcem“ u omiljenom filmu. Te tehnologije su dostupne svima i omogućavaju čak i potpunim amaterima da kreiraju deepfake sadržaje.
Osim video-zapisa, u ovu kategoriju spadaju i brojne lažne fotografije, lažni profili na mnogim platformama kreirani s lošim namerama (u okviru špijunskih operacija, radi dezinformisanja, kreiranja govora mržnje i slično). Audio se takođe može lažirati kako bi se kreirali glasovni klonovi javnih ličnosti. Mnogi od tih sadržaja su i pornografski, vrlo često usmereni ka slavnim ženama. Posebnu kategoriju deepfakea predstavlja „plitki“ lažni video. To su video-snimci s nekim malim tendencioznim izmenama u originalnom snimku. Obično se radi o snimcima upotrebljenim van konteksta ili obrađenim jednostavnim alatima za editovanje. Iako su vrlo jednostavni i očigledni, ipak mogu izazvati značajne efekte. Osmislio ih je Sam Gregory iz humanitarne organizacije za ljudska prava Witness, a izazvali su burne reakcije miliona ljudi na društvenim mrežama.
Ko ga kreira?
Među kreatorima deepfake-a može se naći širok krug korisnika, od akademskih i industrijskih istraživača do entuzijasta, kreatora vizuelnih efekata i porno producenata. Vlade pojedinih država se takođe mogu baviti ovom tehnologijom, kao deo svojih online strategija za diskreditaciju i ometanje ekstremističkih grupa i drugih „neprijateljskih“ pojedinaca i formacija, te za uspostavljanje kontakta sa ciljanim pojedincima.
Deepfake ne mora da se pominje samo u negativnom kontekstu. Mnogi deepfake sadržaji su zabavni, a neki mogu biti i od pomoći. Deepfake za kloniranje glasa može dati mogućnost ljudima da ponovo čuju glas koji su izgubili zbog bolesti, pa i da vide drage osobe koje su pre mnogo godina izgubili i čuju njihov glas. Deepfake video-snimci mogu da ožive muzeje i galerije. Na primer, na Floridi, muzej nadrealističkog slikara Salvadora Dalija nudi deepfake slikara koji sam predstavlja svoju umetnost i pravi selfije s posetiocima.
Nastaje društvo bez poverenja. Ljudi više teško mogu da razlikuju istinu od laži, sve je pod znakom pitanja i ničemu se više ne može verovati
Za industriju zabave ova tehnologija se može koristiti za poboljšanje sinhronizacije filmova na stranom jeziku i „oživljavanje“ preminulih glumaca. Tako se pre par godina govorilo o pojavi klona Džejmsa Dina u filmu Finding Jack, a Brus Vilis, koji zbog bolesti više ne glumi, se „pojavio“ u jednoj reklami ruske telekomunikacione kompanije MegaFon. Za kreiranje klona inženjeri deepfake kompanije Deepcake upotrebili su 34.000 fragmenata slika iz filmova popularnog glumca.
Kada je sve počelo
Smatra se da je deepfake, kakav je danas aktuelan, rođen 2017. godine, kada je korisnik Reddit-a postavio lažne pornografske snimke poznatih ličnosti (Tejlor Svift, Skarlet Johanson…). Tome su prethodile godine i decenije rada, koje su konačno dovele do razvoja deepfake aplikacija.
Manipulacija fotografijama razvijena je još u 19. veku, a nakon toga primenjena je i na filmove. S razvojem tehnologije tokom 20. veka manipulacije napreduju, a napredak postaje još brži s pojavom digitalnog videa. Može se smatrati da su deepfake tehnologiju razvili istraživači na akademskim institucijama, počevši od devedesetih godina prošlog veka. Kasnije su počeli da je koriste i amateri okupljeni u online zajednicama, a nedavno je ove metode počela da koristi i industrija.
Među prvim značajnim projektima bio je program Video Rewrite (1997. godine), koji je modifikovao video neke osobe tako da izgovara reči sadržane u drugom audio-zapisu. Pritom je tehnikom mašinskog učenja izvršena reanimacija lica u skladu s glasovima koje osoba treba da izgovori. Sledeći korak, 2017. godine, bila je modifikacija video-snimka jedne osobe tako da oponaša izraze lica druge osobe u realnom vremenu (program Face2Face).
U avgustu 2018. proširuje se primena deepfake-a na čitavu figuru čoveka (do tada je bila fokusirana samo na glavu i delove lica). Te godine istraživači sa Univerziteta Berkli predstavili su deepfake aplikaciju za ples, koja uz pomoć veštačke inteligencija stvara utisak savršene sposobnosti za igru. Naredna istraživanja proširila su deepfake i na mnoge druge oblasti.
Deepfake tehnologija
Za kreiranje tehnički kvalitetnog deepfake sadržaja potrebna je odgovarajuća tehnologija. Nije dovoljno imati samo standardni računar. Većina se kreira na vrhunskim desktop računarima s moćnim grafičkim karticama ili, još bolje, oslanjajući se na računarsku snagu u oblaku. Potrebna je dugo bila i odgovarajuća stručnost, ali danas su dostupni alati za kreiranje deepfake-a koje mogu upotrebiti i potpuni amateri, a mnoge kompanije nude korisnicima i uslugu kreiranja i obrade sadržaja u oblaku.
Glavne metode mašinskog učenja koje se koriste za kreiranje deepfake-a uključuju trening generativnih arhitektura neuronskih mreža, kao što su autoenkoderi ili generativne adversarijske mreže (Generative Adversarial Network – GAN). Na primer, da bi se napravio video sa zamenom lica, potrebno je na hiljade snimaka (fotografija) dva lica koja treba zameniti. Fotografije se podvrgavaju obradi u AI algoritmu koji se zove enkoder. On pronalazi i uči sličnosti između ova dva lica i svodi ih na njihove zajedničke karakteristike (kako se to kaže, „komprimuje ih“). Drugi AI algoritam (dekoder) zatim uči da povrati lica iz kompresovanih slika. Koriste se dva dekodera, jedan da povrati lice prve osobe, a drugi da povrati lice druge osobe. Zatim se kodirane slike jednostavno zamene, ubace u „pogrešan“ dekoder. Da bi se dobio veran video, postupak se mora uraditi na svakom frejmu videa.
Da bi se napravio deepfake video potpuno nepoznate ličnosti koristi se GAN mreža, koja suprotstavlja dva algoritma veštačke inteligencije. Prvi algoritam, poznat kao generator, dobija nasumični šum i pretvara ga u sliku. Ova sintetička slika se zatim dodaje nizu stvarnih slika (recimo, neke poznate ličnosti), koje se unose u drugi algoritam, poznat kao diskriminator. U početku sintetičke slike neće izgledati kao lica. Ali ako se proces ponovi mnogo puta i generator i diskriminator se poboljšavaju, pa će uz dovoljno ciklusa i povratnih informacija generator početi da proizvodi potpuno realna lica deepfake ličnosti.
Deepfake aplikacije
Mnoge deepfake aplikacije dostupne su profesionalcima i običnim korisnicima, uz zahtev da se ne koriste u nezakonite svrhe i da se poštuju pravila etike. Posebno je naglašeno da se ne koriste tuđe fotografije i video-zapisi bez eksplicitne dozvole vlasnika. Preporučeno je da cilj korišćenja bude proučavanje mašinskog učenja, prepoznavanje slika, kompjuterski vid i, naravno, zabava.
U naprednije deepfake aplikacije spada DeepFaceLab. To je Windows program prvenstveno namenjen istraživačima i studentima. Koristi mašinsko učenje i sintezu ljudskih slika da zameni lica u video-snimcima. Podrazumeva se da je za tu aplikaciju potreban moćan računar. U istu kategoriju spada i ResembleAI (Toronto, Kanada) za kloniranje glasa, kao i Deep Art (Parson School of Design) koji se koristi za stvaranje deepfake slika zasnovanih na umetnosti. Pomoću veštačke inteligencije može praktično bilo koju fotografiju da pretvori u umetničko delo. DeepBrain (Južna Koreja) omogućava kreiranje deepfake sadržaja profesionalnog kvaliteta.
Deepfake ne mora da se pominje samo u negativnom kontekstu. Mnogi deepfake sadržaji su zabavni, a
neki mogu biti i od pomoći
Za malo manje zahtevne korisnike ponuđene su i besplatne aplikacije: Lensa AI (kreira fotorealistične portrete od nekoliko selfija), Reface i FacePlay (na osnovu fotografije koju korisnik uveze njegov lik se ubacuje u ponuđene GIF animacije), zatim MyHeritage (za animiranje starih fotografija), Face Swap Live (za zamenu lica uz mogućnost dodavanja 3D efekata i interaktivno savijanje lica s nekoliko maski i efekata), FaceMagic (zamena lica po izboru s video-zapisa ili slika), Avatarify (animator lica s velikom kolekcijom pokreta) i mnoge druge.
Deepfake na Web-u i mobilnom telefonu
Jedna od aplikacija koja omogućava kreiranje deepfake sadržaja na Web-u je Deepfakes Web. Koristi moćne grafičke procesore u oblaku. Mašinsko učenje apsorbuje različite složenosti podataka o licu. Za učenje i obuku iz video-zapisa i slika potrebno je oko četiri sata, dok za zamenu lica treba još 30 minuta. Besplatna verzija kreira video za oko pet sati, dok je premijum verziji potrebno samo sat vremena.
Postoje i aplikacije koje daju neke mogućnosti kreiranja deepfake sadržaja na smartfonu. Prva takva aplikacija bila je FaceApp kompanija FaceApp Technology sa Kipra. Ona je omogućavala korisnicima da ubacivanjem fotografije vide kako će izgledati u budućnosti, dodavati licu osmeh ili neke druge efekte. Jedna od danas najpopularnijih deepfake aplikacija za mobilne telefone jeste kineska aplikacija Zao. Ona daje mogućnost korisnicima da stave svoje lice umesto originalnih TV i filmskih likova. Korisnici treba da naprave seriju selfija u kojima trepću, pomeraju usta i prave različite izraze lica, a aplikacija ih potom koristi da transformiše animiranu sliku korisnika u željeni lik na filmu, u TV emisiji ili nekom drugom sadržaju.
Kako detektovati moguću prevaru?
S obzirom na brojne manipulatorske mogućnosti s deepfake sadržajima, logično je da se protiv takve primene treba boriti, a prioritet je prepoznati deepfake. One lošijeg kvaliteta lako je primetiti: sinhronizacija usana može biti loša, tonovi boje kože neujednačeni, a može doći i do treperenja oko ivica lica. Fini detalji, kao što su kosa na rubovima, zubi ili nakit, takođe se teško mogu verno prikazati.
S napretkom tehnologije otkrivanje deepfake-a postaje lakše, ali i kreiranje deepfake sadržaja kvalitetnije. Na primer, u početku, 2018. godine, otkriveno je da deepfake lažna lica ne trepću normalno (što je logično, jer na svim slikama ljudi su bili sa otvorenim očima, tako da algoritmi nikad nisu učili o treptanju). Ali čim je istraživanje objavljeno, pojavila su se deepfake lica s treptanjem.
Deepfake može predstavljati problem u širokom spektru ljudskog delovanja. Ali upravo je veštačka inteligencija koja ga stvara i rešenje ovog problema. AI već pomaže u pronalaženju lažnih video-zapisa. Već se uveliko radi na sistemima detekcije koji će imati zadatak da odmah alarmiraju i označe video kao lažan, čim ga prepoznaju. Razvojem i usavršavanjem alata i tehnologija za detekciju deepfake-a bave se mnoge IT kompanije među kojima su Microsoft, Intel, Sentinel, Meta, Google, Amazon, zatim organizacije i asocijacije (Partnership on AI, neprofitna koalicija posvećena odgovornoj upotrebi veštačke inteligencije), kao i akademske institucije (MIT, Kornel, Oksford, Berkli, Merilend i drugi).
S napretkom tehnologije otkrivanje deepfake-a postaje lakše, ali i kreiranje deepfake sadržaja kvalitetnije
Kompanija Sentinel (Talin, Estonija) razvija tehnologiju koju uveliko koriste vlade, vojne agencije, kompanije, ali i mediji, kako bi zaustavili širenje deepfake sadržaja. Sistem funkcioniše tako što korisnici preko njihove Web stranice analiziraju digitalne sadržaje za koje se proverava da li su deepfake. Intel FakeCatcher može sa 96 odsto preciznosti da utvrdi da li je sadržaj deepfake ili ne, a za potrebe običnih građana postoji besplatan alat WeVerify.
Šta dalje?
U budućnosti svakako možemo očekivati još više deepfake sadržaja koji zabavljaju korisnike, ali mnogo češće uznemiravaju, zastrašuju, ponižavaju i destabilizuju. Postavlja se pitanje šta kaže zakon na takve potencijalne malverzacije. Po zakonu, deepfake sadržaj sam po sebi nije nezakonit, ali se zakon lako može prekršiti u slučaju narušavanja autorskih prava, zakona o zaštiti podataka, kleveta i moralnih uvreda, deljenja privatnih slika bez pristanka vlasnika (posebno u slučaju deepfake pornografskih sadržaja).
Nadajmo se da deepfake sadržaji neće moći da izazovu neke veće međunarodne incidente. Jer, sve države imaju svoje sisteme obezbeđenja i kontrole, a i brojne aktivnosti vezane za detekciju deepfake-a. Ipak, deepfake sadržaji zajedno s drugim lažnim vestima u medijima, stvaraju društvo bez poverenja. Ljudi više teško mogu da razlikuju istinu od laži, sve je pod znakom pitanja i ničemu se više ne može verovati.
Autor: Nadežda Veljković