Šta je deepfake menjanje lica poznatih?

Prilično zastrašujuća metoda montaže omogućava čak i korisnicima bez predznanja o kompjuterima da promene lice osobe u videu na veoma uverljiv način. Kao što to obično biva tehnologija ove vrste je prvo našla primenu u industriji za odrasle. Lica poznatih ličnosti našlo se na telima porno glumica, a rezultat je neverovatno realističan.

deepfake
Kompjuterski generisano lice Daisy Ridley

Sve je počelo na Redditu kada je korisnik poznatiji kao Deepfake počeo da postavlja video klipove gde je ubacivao lica holivudskih glumica kreirajući na taj način izuzetno uverljive celebrity porno filmove. On je svoj hobi shvatio prilično ozbiljno pa je sa svakim video sve više usavršavao sistem. Ono što je fascinantno, ali u isto vreme i zabrinjavajuće je lakoća s kojom je to moguće izvesti. 

Nakon prvih objava u medijima o ovom slučaju, u komuni se odomaćio termin deepfake za video klipove sa montiranim licem poznatih ličnosti. Korisnici su počeli masovno da proizvode video materijale koristeći kombinaciju open source programa, skeniranih fotografija i video materijala ličnosti koje žele da ubace. Program analiziranjem fotografija i video materijala pravi algoritam koji imitira lice poznate ličnosti ali sa mimikom originalne osobe.

Pročitajte i:  YouTube: Obavezna oznaka za sadržaje koji nastanu uz pomoć AI alata

Pomama je otišla toliko daleko da je stvorena i aplikacija Fake App kako bi čak i amateri mogli lako da se proizvedu video. Sa razvijanjem tehnologije, priča je otišla van okvira pornografije. Jasne su etičke implikacije, ali sa usavršavanjem tehnologije moć manipulacije može da utiče na ceo svet. 

Globalna bezbednost pod znakom pitanja

Interesantno je da za kreiranje ovih klipova nije potrebna vanserijska mašina pa se tako mogu dobiti rezultati koji ne zaostaju mnogo za profesionalnim holivudskim specijalnim efektima. Pogledajte kako izgleda princeza Leia u filmu Rogue One, a kako izgleda rađena kao deepfake video:

Da li prepoznajete koji je original a koji (deep)fake? Insert iz filma je gore, a video napravljen u kućnim uslovima bez ikakvih troškova je dole. Razlika je vrlo mala u detaljima, dok je u novcu razlika otprilike 200 miliona dolara uloženih u CGI obradu filma. Ovo je tek početak, šta nas čeka kad se tehnologija usavrši?

Zamislite situaciju da neko pusti montirani snimak javne ličnosti kako “priznaje” neki zločin ili verskog lidera koji poziva na nemire u nekoj zemlji. Samo je pitanje vremena kada će teroristi usvojiti novu tehnologiju kako bi manipulisali masama. Za sada je tehnologija daleko od foto-realizma, ali isto tako smo mislili da smo decenijama udaljeni od vožnje autonomnim vozilima ili od kupovine u prodavnici bez prodavaca, ali i to se desilo. Budućnost je očigledno mnogo bliže nego što mislimo. U ovom slučaju, to ne mora da znači ništa dobro.

Pročitajte i:  Problem novog doba: Učenici uhapšeni zbog deepfake sadržaja

Izvor: Motherboard

Facebook komentari:
SBB

Tagovi: ,