Top50 2024

Intelov deepfake detektor testiran na stvarnim i lažnim video zapisima

U martu prošle godine pojavio se snimak na kojem se vidi kako predsednik Volodimir Zelenski govori narodu Ukrajine da polože oružje i predaju se Rusiji.

PCPress.rs Image

Iznenađujuće je koliko je teško razlikovati lažni i pravi video – a ova tehnologija svakako ima potencijal

Bio je to prilično očigledan deepfake – vrsta lažnog videa koji koristi veštačku inteligenciju za zamenu lica ili kreiranje digitalne verzije nekoga. Ali kako razvoj veštačke inteligencije olakšava proizvodnju deepfakesa, njihovo brzo otkrivanje postalo je sve važnije. Intel veruje da ima rešenje, a sve je u krvi na licu. Kompanija je sistem nazvala “FakeCatcher”.

U Intelovim uglavnom praznim kancelarijama u Silicijumskoj dolini srećemo Ilke Demir, istraživača u Intel Labs, koji objašnjava kako to funkcioniše.

„Pitamo šta je stvarno u autentičnim video snimcima? Šta je stvarno u nama? Šta je vodeni žig da smo ljudi?“ ona kaže. Centralno u sistemu je tehnika koja se zove fotopletizmografija (PPG), koja otkriva promene u protoku krvi. Lica stvorena deepfakes-om ne odaju ove signale, kaže ona. Sistem takođe analizira kretanje očiju kako bi proverio autentičnost. „Dakle, normalno, kada ljudi gledaju u tačku, kada ja gledam u vas, kao da ispaljujem zrake iz mojih očiju, na vas. Ali za deepfake, to je kao glatke oči, one su divergentne“, kaže ona. Gledajući obe ove osobine, Intel veruje da može da otkrije razliku između pravog i lažnog videa u roku od nekoliko sekundi. Kompanija tvrdi da je FakeCatcher 96% tačan. Zato je BBC tražio da isproba sistem. Intel se složio.

Pročitajte i:  Lažna pornografija: Deepfake kriza u Južnoj Koreji

Korišćeno je desetak klipova bivšeg američkog predsednika Donalda Trampa i predsednika Džoa Bajdena. Neki su bili stvarni, neki su bili lažni koje je kreirao Masačusetski institut za tehnologiju (MIT). U smislu pronalaženja deepfakesa, sistem je izgledao prilično dobar. Uglavnom smo birali lažne sinhronizacije – prave video snimke u kojima su usta i glas izmenjeni. I odgovor je bio tačan.

Međutim, kada smo došli do pravih, autentičnih video snimaka, počeo je problem. Nekoliko puta je sistem rekao da je video lažan, dok je u stvari bio stvaran. Što je video lošijeg kvaliteta, to je teže uhvatiti protok krvi. Sistem takođe ne analizira zvuk, tako da su neki video snimci koji su izgledali prilično stvarni slušajući glas, označeni kao lažni. Zabrinutost je da ako program kaže da je video lažan, kada je originalan, to može izazvati prave probleme. Gospođa Demir kaže da je sistem previše oprezan. Bolje je uhvatiti sve lažne – i uhvatiti neke prave video zapise – nego propustiti lažne.

Pročitajte i:  Deepfake skandal zatvorio školu

Deepfakes mogu biti neverovatno suptilni: na primer, snimak od dve sekunde u reklami za političku kampanju. Mogu biti i lošeg kvaliteta. Lažni snikam se može napraviti samo promenom glasa. U tom pogledu, dovedena je u pitanje sposobnost FaceCatcher-a da radi „u divljini“ – u kontekstu stvarnog sveta.

Matt Groh je docent na Univerzitetu Northvestern u Ilinoisu i stručnjak za deepfakes. „Ne sumnjam u statistiku koju su naveli u svojoj početnoj proceni“, kaže on. „Ali sumnjam da su statistike relevantne za kontekst u stvarnom svetu.

Ovde postaje teško proceniti tehnologiju FakeCatcher-a. Programi poput sistema za prepoznavanje lica često daju izuzetno izdašne statistike za njihovu tačnost. Međutim, kada se testiraju u stvarnom svetu, mogu biti manje tačni.

U suštini, tačnost u potpunosti zavisi od težine testa. Intel tvrdi da je FakeCatcher prošao kroz rigorozno testiranje. Ovo uključuje “divlji” test – u kojem je kompanija sastavila 140 lažnih video snimaka – i njihove prave kolege. U ovom testu sistem je imao stopu uspeha od 91%, kaže Intel.

Međutim, Matt Groh i drugi istraživači žele da vide sistem nezavisno analiziran. Ne misle da je dovoljno dobro što Intel postavlja test za sebe. „Mislim da je zaista važno kada dizajniramo revizije i pokušavamo da razumemo koliko je nešto tačno u kontekstu stvarnog sveta“, kaže on.

Pročitajte i:  Deepfake golotinja za širenje malvera

Iznenađujuće je koliko je teško razlikovati lažni i pravi video – a ova tehnologija svakako ima potencijal.

Izvor: Bbc

Facebook komentari:
Računari i Galaksija
Tagovi: