Računari i Galaksija

Deepfake od pornografskih sadržaja do opšteg nepoverenja

Interesovanje za „deepfake“ fenomen opalo je u poslednjih nekoliko meseci, a najverovatnije zbog toga što se javnost pomirila sa tim da će AI i u budućnost da se koristi za kreiranje super-realističnih, ali ipak lažnih, video sadržaja, te fotografija.

Ipak, termin je nedavno ponovo isplovio na površinu, a u vezi sa vešću da internetom kruži deepfake, koji ovoga puta ima političku konotaciju, te prikazuje Donalda Trampa. Iako bi mnogi pomislili da se radi o nekoj kampanji visokog profila, u pitanju je parodija sa preteranim glasovnim impresijama i nerealističnim kompjuterskim efektima. Tramp u jednom trenutku čak kaže i da “svi znamo da je globalno zagrevanje laž, baš kao i ovaj video.“

Iako nije sigurno da ovaj video uopšte može da se uvrsti u deepfake, ipak se pokreće niz važnih pitanja, a koja se tiču primenjivanja ove alatke u budućnosti. Tako se stručnjaci boje da bi deepfake mogao da postane nova lažna vest. Termin „deepfake“ došao je od jednog Reddit korisnika, a u decembru 2017, kada su neke slavne ličnosti uz pomoć ove tehnologije smeštane u pornografske scenarije. Iako se u početku odnosio samo na pornografske sadržaje, uskoro se proširio i na druge oblasti, te su različiti sadržaji obrađivani uz pomoć mašinskog učenja.

Pročitajte i:  Kina izdaje nacrt smernica za standardizaciju AI industrije

Iako su pornografski sadržaji skrenuli pažnju mejnstrim javnosti, stručnjaci proučavaju i druge segmente u okviru kojih bi deepfake u budućnosti mogao da ostavi ozbiljne posledice. Ipak, definicija toga šta je deepfake neće biti korisna u slučaju sprečavanja neželjenih scenarija, pa se polako približavamo svetu u kojem nećemo moći da budemo sigurni u verodostojnost bilo kojeg audio-vizuelnog sadržaja, što će uticati na još veće nepoverenje u medije, sudove, te javne institucije.

Izvor: The Verge

Pogledajte i: Distributeri video nadzor mrežne opreme – Portal Videonadzor.Net
Facebook komentari:
SBB

Tagovi: , , , , ,