BIZIT 2024

AI model koji je lažne video sadržaje podigao na novi nivo

Microsoft je pre nekoliko dana predstavio novi AI model VASA-1 (skraćenica za Visual Affective Skills Animator). U pitanju je super-alatka za kreiranje deepfake sadržaja, budući da je napravila lažni video na osnovu samo jedne fotografije i jednog audio snimka.

PCPress.rs Image

U pitanju je video u kojem osoba priča, a iz kompanije kažu da bi VASA-1 u budućnosti mogao da se koristi za pravljenje realističnih virtuelnih avatara, a eksperti dodaju – i opasnih deepfake videa u kojima se kompromituju poznate osobe i šire dezinformacije. Zabrinutost je opravdana, jer model koji je uspeo da napravi dobar video uz pomoć samo jedne fotografije i jednog audio zapisa uopšte ne zvuči bezazleno.

Facijalne ekspresije u videu su precizne, pokreti glave takođe, a usne su sa audio zapisom perfektno sinhronizovane. VASA dakle ne klonira glas kao drugi slični alati, već koristi autentične snimke. Zato zvuči realističnije, a vrlo lako može da se zamisli scenario u kojem se koristi neko ko ima sličan glas kao meta koja se kompromituje nekim deepfake materijalom.

Pročitajte i:  Microsoft: Novi AI eksperiment "špijunira" korisnike

Izvor: Ars Technica

Facebook komentari:
Računari i Galaksija
Tagovi: , , ,