BIZIT 2024

ChatGPT, duhovi i klonovi: Kad bot počne da vas imitira

Kompanija OpenAI je pre nekoliko dana objavila dokument za novi GPT-4o AI model koja služi za sigurna testiranja.

PCPress.rs Image

Između ostalih stvari tamo piše i da je Advance Voice Mode u retkim prilikama tokom testiranja nenamerno počinjao da imitira glas korisnika, i to bez dozvole. Ovaj distopijski scenario je brzo privukao pažnju medija, a iz kompanije obećavaju da su preduzete sve mere kako se ovo ne bi ponavljalo.

Advance Voice Mod je opcija za ChatGPT koja korisnicima omogućava da razgovaraju s botom. Iako je imitacija najviši oblik laskanja (bar tako kažu), ChatGPT koji imitira glas onoga s kojim komunicira zvuči kao početak neke horor priče.

U opisanom primeru AI model je iznenada počeo s imitiranjem glasa osobe koja je testirala opciju, a situacija u kojoj neka mašina imitira vaš glas uopšte ne zvuči bezazleno. U dokumenta se objašnjava da se ovo retko dešava, a zbog toga što je GPT-4o napravljen tako da može da proizvede glas od svakog zvuka u okruženju. Takvo ponašanje se obeshrabruje posebnim instrukcijama, ali to izgleda nije uvek dovoljno.

Pročitajte i:  Još lakše Google i video prezentacije kreirane uz Gemini AI

ChatGPT je postao svakodnevna stvar, alatka koju koristi sve više ljudi. GPT-4o modeli ima sposobnost da imitira glas iz najkraćeg audio klipa, što je bezbednosni rizik. Pored toga je i znak da nas čeka neobična audio budućnost, pa ostaje da vidimo hoće li OpenAI i slične kompanije to uspeti da spreče.

Facebook komentari:
Računari i Galaksija
Tagovi: , ,

Leave a Reply

Your email address will not be published. Required fields are marked *