BIZIT 11 - prvi dan

Dobro je da ljudi mogu uočiti deepfake video, loše – nisu tako dobri sa tekstom

Prema studiji, veća je verovatnoća da će korisnici interneta biti prevareni dezinformacijama predstavljenim u tekstualnom obliku u poređenju sa video klipovima napravljenim uz pomoć algoritama.

PCPress.rs Image

Laž se lakše prepozna, ukoliko imate veći broj informacija

Lažni sadržaj generisan modelima mašinskog učenja postaje sve realniji. Slike ljudi različitog uzrasta, pola i rase izgledaju kao prave fotografije. Glasovi se mogu klonirati i manipulisati tako da prate scenario. Video snimci izgledaju realistični sa tehnikama zamene lica ili sinhronizacije usana. Ovi takozvani deepfakes mogu učiniti da izgleda kao da su ljudi rekli ili uradili stvari koje nisu, navodeći nas da poverujemo u laži. Stručnjaci strahuju da će ljudi lakše biti prevareni lažnim video snimcima, jer će im materijal biti verodostojniji kada ga vide, dok bi tekst bilo lako identifikovati kao lažan, jer bi ga očigledno pisala mašina ili bi na drugi način bio izmišljen.

Ali eksperiment koji su sproveli istraživači sa MIT-a pokazao je suprotno. Ljudima je teško da identifikuju izmišljeni tekst u poređenju sa kompjuterski generisanim videom. Čak i ako vam se ovo čini očiglednim, neko je zaista uradio studiju – to je nauka. Smatramo da modaliteti komunikacije posreduju u preciznosti raspoznavanja: učesnici su precizniji na video snimcima sa zvukom nego u nečujnom videu, i tačniji na nečujnom videu nego u tekstualnim transkriptima, napisao je tim u radu objavljenom ovog meseca na arXsiv-u. Akademici su regrutovali 5.727 učesnika u svom eksperimentu i zamolili ih da čitaju, slušaju i gledaju različite političke govore predsednika Džoa Bajdena i Donalda Trampa. Rečeno im je da je 50 odsto sadržaja koji su pogledali lažno i zamoljeni su da procene da li je nešto stvarno ili lažno. Softver je objavio tekstualne transkripte lažnih soundbites-a za obojicu.

Pročitajte i:  Deepfake golotinja za širenje malvera

Lažni video snimci su generisani korišćenjem wav2lip-a za sinhronizaciju video snimaka dvojice muškaraca koji drže govore sa snimcima profesionalnih glasovnih glumaca koji oponašaju par iz lažnih scenarija. Kako bi bili sigurni da rezultati nisu iskrivljeni zbog političke orijentacije, otprilike polovina grupe su bili demokrate, dok su druga polovina bili republikanci. Sve u svemu, mogli su da identifikuju da li je nešto lažno ili ne u oko 57 odsto vremena za tekst, u poređenju sa 76 odsto za samo audio; i 82 procenta za video zapise sa zvukom. Manje je verovatno da će ljudi biti prevareni da poveruju u neistine ako imaju više informacija na raspolaganju, zaključili su istraživači. Ovi nalazi sugerišu da su obični ljudi generalno pažljivi prema svakom modalitetu komunikacije kada im je zadatak da razluče pravo od lažnog i da imaju relativno izoštren osećaj za to kako zvuče dva poslednja američka predsednika, napisali su.

Kako učesnici imaju pristup većem broju informacija putem audio i video zapisa, oni su u mogućnosti da daju preciznije procene da li je politički govor izmišljen. Učesnici mogu da procene da li audio i video snimci izgledaju lažni, slušajući i pazeći na izdajničke znakove, što je teže sa tekstom. Kontekst teksta postaje važan, jer nema vizuelnih ili audio tragova koje ljudi mogu lako da uhvate. Istraživači su rekli da planiraju da istraže upotrebu složenijih deepfake-a, generisanih sofisticiranijim metodama, kao što je zamena lica u video zapisima.

Pročitajte i:  Lažna pornografija: Deepfake kriza u Južnoj Koreji

Izvor: Theregister

Facebook komentari:
Računari i Galaksija
Tagovi: