BIZIT 2022

Amazon asistent će uskoro moći da priča glasovima mrtvih članova porodice

Amazon kaže da, iako ova funkcionalnost Alexa-e da oponaša glasove ljudi „ne može eliminisati bol gubitka“, definitivno može „učiniti da uspomene traju“.

PCPress.rs Image

Na godišnjem događaju kompanije, Amazon je predstavio ovu funkcionalnost kao način za očuvanje uspomena Razgovarati sa prijateljima i rođacima posle smrti je nemoguć zadatak. Ali Amazon-ov virtuelni asistent, Alexa, bi uskoro mogao to da učini mogućim. Na vama je da odlučite li vam je to jezivo ili utešno. Na Amazonovoj konferenciji Re: MARS (Machine Learning, Automation, Robots and Space), Alexin stariji potpredsednik Rohit Prasad demonstrirao je prilično bazičnu osobinu koju bi Alexa mogla imati jednog dana: sposobnost oponašanja glasova.

Ono što je podjednako, ili možda više zapanjujuće, jeste činjenica da bi ova funkcija (ili veština kako je oni zovu) takođe omogućila Alexi da oponaša glasove onih koje smo izgubili ili više nisu sa nama. Amazon je takođe demonstrirao ovu funkcionalnost na događaju u obliku snimljenog videa. U demonstracionom videu, dete kaže: „Alexa, može li baka da mi završi čitanje Čarobnjaka iz Oza?“. Nakon što je čula zahtev, Alexa prihvata zahtev deteta svojim uobičajenim glasom, nakon čega počinje da čita priču glasom koji je veoma sličan onom detetove preminule bake, preneo je CNBC.

Pročitajte i:  Amazon i virtuelna proba cipela

Iako ovo može izgledati pomalo jezivo, na godišnjem događaju kompanije, Prasad je predstavio ovu funkcionalnost kao način da sačuva uspomene. Amazon kaže da, iako ova funkcionalnost Alexa-e da oponaša glasove ljudi „ne može eliminisati bol gubitka“, ona definitivno može „učiniti da uspomene traju“. U slučaju da ste znatiželjni kako funkcioniše, Amazon je rekao da Alexina nova veština može da stvori sintetički otisak glasa pojedinca nakon što se obuči na snimku makar i samo jednog minuta zvuka pojedinačnog glasa. Iako sve izgleda prilično plemenito, stvari nisu tako jednostavne kao što izgledaju. Stručnjaci su dugo bili zabrinuti zbog alata koji se koriste za repliciranje glasova u deep fake video zapisima. Iako je ova veština još uvek u razvoju i ostaje nejasno da li će Amazon objaviti svojim korisnicima širom sveta, ona izaziva zabrinutost u vezi sa zloupotrebom ove tehnologije od strane prevaranta i sajber kriminalaca.

Izvor: Bgr

 

Facebook komentari:
SBB

Tagovi: ,

Leave a Reply

Your email address will not be published.