Deepfake od pornografskih sadržaja do opšteg nepoverenja
Interesovanje za „deepfake“ fenomen opalo je u poslednjih nekoliko meseci, a najverovatnije zbog toga što se javnost pomirila sa tim da će AI i u budućnost da se koristi za kreiranje super-realističnih, ali ipak lažnih, video sadržaja, te fotografija.
Ipak, termin je nedavno ponovo isplovio na površinu, a u vezi sa vešću da internetom kruži deepfake, koji ovoga puta ima političku konotaciju, te prikazuje Donalda Trampa. Iako bi mnogi pomislili da se radi o nekoj kampanji visokog profila, u pitanju je parodija sa preteranim glasovnim impresijama i nerealističnim kompjuterskim efektima. Tramp u jednom trenutku čak kaže i da “svi znamo da je globalno zagrevanje laž, baš kao i ovaj video.“
Iako nije sigurno da ovaj video uopšte može da se uvrsti u deepfake, ipak se pokreće niz važnih pitanja, a koja se tiču primenjivanja ove alatke u budućnosti. Tako se stručnjaci boje da bi deepfake mogao da postane nova lažna vest. Termin „deepfake“ došao je od jednog Reddit korisnika, a u decembru 2017, kada su neke slavne ličnosti uz pomoć ove tehnologije smeštane u pornografske scenarije. Iako se u početku odnosio samo na pornografske sadržaje, uskoro se proširio i na druge oblasti, te su različiti sadržaji obrađivani uz pomoć mašinskog učenja.
Iako su pornografski sadržaji skrenuli pažnju mejnstrim javnosti, stručnjaci proučavaju i druge segmente u okviru kojih bi deepfake u budućnosti mogao da ostavi ozbiljne posledice. Ipak, definicija toga šta je deepfake neće biti korisna u slučaju sprečavanja neželjenih scenarija, pa se polako približavamo svetu u kojem nećemo moći da budemo sigurni u verodostojnost bilo kojeg audio-vizuelnog sadržaja, što će uticati na još veće nepoverenje u medije, sudove, te javne institucije.
Trump heeft een boodschap voor alle Belgen… #Klimaatpetitie pic.twitter.com/Kf7nIaDOKj
— sp.a (@sp_a) May 20, 2018
Izvor: The Verge