BIZIT 2024

Želite da uočite deepfake video pozivaoca? 

Istraživači su otkrili iznenađujuće jednostavan način za otkrivanje deepfake video poziva: zamolite osumnjičenog da se okrene bočno.

PCPress.rs Image

Zamolite osumnjičenog da se okrene bočno

Trik je ove nedelje podelio Metaphysic.ai, londonski startap koji stoji iza viralnih deepfakesa Toma Kruza. Kompanija je koristila DeepFaceLive, popularnu aplikaciju za deepfake videe, da transformiše volontera u različite poznate ličnosti. Većina rekreacija je bila impresivna kada su gledali pravo ispred sebe. Ali kada su se lica zarotirala za punih 90 stepeni, slike su postale izobličene i čarolija je prekinuta. Tim veruje da se defekti pojavljuju zato što softver koristi manje referentnih tačaka za procenu bočnih pogleda lica. Ovo dovodi do toga da algoritam ne može da pogodi kako bi to izgledalo.

„Tipični paketi za 2D poravnanje smatraju da je prikaz profila 50% skriven, što otežava prepoznavanje, kao i preciznu obuku i kasniju sintezu lica“, objasnio je Martin Anderson iz Metaphysic.ai u postu na blogu. „Često će generisani orijentiri profila „iskočiti“ na bilo koju moguću grupu piksela, koji mogu predstavljati „oko koje nedostaje“ ili drugi detalj lica koji je zatamnjen u prikazu profila.“ Ove slabe tačke se mogu ojačati, ali je potrebno mnogo rada. Jutjuber DesiFakes je dokazao da je to moguće nakon što je u Pulp Fiction dodao deepfake Džerija Sajnfelda. Ali ovo je zahtevalo opsežnu naknadnu obradu.

Pročitajte i:  Lažna pornografija: Deepfake kriza u Južnoj Koreji

Pored toga, pogled na profil Seinfelda veoma je ličio na originalnog glumca. Ipak, ovo je teško ponoviti za širu javnost, jer nas retko snimaju ili fotografišu u profilu – osim ako nas ne uhapse. Ovo može ostaviti duboke lažne modele sa nedovoljnim podacima o obuci za generisanje realističnih bočnih pogleda. Istraživanje Metaphysic.ai-a se pojavljuje usred sve veće zabrinutosti oko deepfake video poziva. U junu je nekoliko evropskih gradonačelnika prevareno video pozivom Vitalija Klička. Nekoliko dana kasnije, FBI je upozorio da prevaranti koriste deepfakes u intervjuima za remote poslove koji nude pristup vrednim informacijama. Trik “okreni se u profil” možda nije spasio sve žrtve. Budući 3D sistemi orijentira mogu proizvesti uverljive prikaze profila, dok bi fotorealistični CGI modeli mogli zameniti cele glave. Bez obzira na to, trik sa bočnim pogledom dodaje novu šansu za otkrivanje lažnjaka.

Izvor: Thenextweb

 

Facebook komentari:
Računari i Galaksija
Tagovi:

1 thoughts on “Želite da uočite deepfake video pozivaoca? 

  • 28. 08. 2022. at 06:47
    Permalink

    Ja. Zelim. Dase. Banuje. Jedan. Profil. Na. Tik. Toku. Hvala

Comments are closed.