AI model koji je lažne video sadržaje podigao na novi nivo

Microsoft je pre nekoliko dana predstavio novi AI model VASA-1 (skraćenica za Visual Affective Skills Animator). U pitanju je super-alatka za kreiranje deepfake sadržaja, budući da je napravila lažni video na osnovu samo jedne fotografije i jednog audio snimka.

PCPress.rs Image

U pitanju je video u kojem osoba priča, a iz kompanije kažu da bi VASA-1 u budućnosti mogao da se koristi za pravljenje realističnih virtuelnih avatara, a eksperti dodaju – i opasnih deepfake videa u kojima se kompromituju poznate osobe i šire dezinformacije. Zabrinutost je opravdana, jer model koji je uspeo da napravi dobar video uz pomoć samo jedne fotografije i jednog audio zapisa uopšte ne zvuči bezazleno.

Facijalne ekspresije u videu su precizne, pokreti glave takođe, a usne su sa audio zapisom perfektno sinhronizovane. VASA dakle ne klonira glas kao drugi slični alati, već koristi autentične snimke. Zato zvuči realističnije, a vrlo lako može da se zamisli scenario u kojem se koristi neko ko ima sličan glas kao meta koja se kompromituje nekim deepfake materijalom.

Pročitajte i:  Spotify: AI plejliste postale stvarnost

Izvor: Ars Technica

Facebook komentari:
SBB

Tagovi: , , ,

Leave a Reply

Your email address will not be published. Required fields are marked *