AI model koji je lažne video sadržaje podigao na novi nivo
Microsoft je pre nekoliko dana predstavio novi AI model VASA-1 (skraćenica za Visual Affective Skills Animator). U pitanju je super-alatka za kreiranje deepfake sadržaja, budući da je napravila lažni video na osnovu samo jedne fotografije i jednog audio snimka.
U pitanju je video u kojem osoba priča, a iz kompanije kažu da bi VASA-1 u budućnosti mogao da se koristi za pravljenje realističnih virtuelnih avatara, a eksperti dodaju – i opasnih deepfake videa u kojima se kompromituju poznate osobe i šire dezinformacije. Zabrinutost je opravdana, jer model koji je uspeo da napravi dobar video uz pomoć samo jedne fotografije i jednog audio zapisa uopšte ne zvuči bezazleno.
Facijalne ekspresije u videu su precizne, pokreti glave takođe, a usne su sa audio zapisom perfektno sinhronizovane. VASA dakle ne klonira glas kao drugi slični alati, već koristi autentične snimke. Zato zvuči realističnije, a vrlo lako može da se zamisli scenario u kojem se koristi neko ko ima sličan glas kao meta koja se kompromituje nekim deepfake materijalom.
Izvor: Ars Technica