Cove

Alexa i imitiranje glasova voljenih osoba

Prodavci odavno igraju na emocije, pa klijente privlače različitim zamkama koje ih podsećaju na one koje vole, te na neki period života. Amazon pokušava isto s novim opcijama za asistenta Alexa.

PCPress.rs Image

U pitanju je deepfake opcija zahvaljujući kojoj će asistent moći da imitira glasove, te korisnicima ponudi Alexu koja zvuči kao voljena osoba, čak i ako ova više nije među živima. Za to je potreban tek kratak audio snimak, a pojedini opciju već dovode u pitanje, budući da tvrde da igra na kartu traume i patnje za onima koji su izgubili živote tokom pandemije.

Na demo snimku može da se vidi dete dok razgovara s asistentom koji ima glas njegove bake, te joj traži da nastavi sa čitanjem Čarobnjaka iz Oza. Ubrzo se iz zvučnika čuje bakin glas, kao u nekoj mračnoj bajci. Iz kompanije kažu da se na funkciji još uvek radi i da se ne zna kada bi mogla da stigne do korisnika.

Deepfake je odavno stekao kontroverznu reputaciju, posebno audio deepfake. Alexa ipak nije prvi proizvod koji bi mogao da se posluži ovom tehnologijom – Takara Tomy pametni zvučnici već imitiraju one koji ne mogu da budu prisutni, pa koriste glasove roditelja dok deci čitaju priče za laku noć. Mnogi smatraju da je imitiranje glasova problematično, posebno ako se koristi za promociju proizvoda tokom pandemije, kada su mnogi usamljeni i izolovani.

Pročitajte i:  Amazonov bum izazvan pandemijom polako nestaje

Izvor: Ars Technica

Facebook komentari:
SBB

Tagovi: , , , ,

Leave a Reply

Your email address will not be published.