OpenAI omogućava DALL-E korisnicima da aplouduju i edituju lica ljudi
OpenAI sada dozvoljava korisnicima da aplouduju i edituju lica ljudi na svom naprednom text-to-image generatoru, DALL-E 2.
Kompanija je saopštila da je izgradila nove tehnike kako bi sprečila zloupotrebu, kao što su deepfakes
Ranije je DALL-E 2 odbijao otpremanje slika koje su sadržavale realistična lica ili pokušavale da imitiraju javne ličnosti, kao što su poznate ličnosti ili političari. Ovo je urađeno kako bi se sprečilo da se sistem koristi za kreiranje deepfakesa – lažnih slika ljudi ili slika dizajniranih da izgledaju kao da je osoba uradila nešto što nije. OpenAI je rekao da je izgradio „nove tehnike otkrivanja i reagovanja kako bi zaustavio zloupotrebu“. Kompanija je saopštila da je primila zahteve za mogućnost otpremanja i uređivanja lica od raznih testera.
„Rekonstruktivni hirurg nam je rekao da je koristio DALL-E da pomogne svojim pacijentima da vizualizuju rezultate. A filmski stvaraoci su nam rekli da žele da mogu da uređuju slike scena sa ljudima kako bi im pomogli da ubrzaju svoje kreativne procese”. Već neko vreme postoji zabrinutost da se text-to-image modeli poput DALL-E koriste za širenje dezinformacija na mreži. Kada je OpenAI otkrio najnoviju verziju AI modela ranije ove godine, bio je nedostupan javnosti dok su njegova ograničenja testirana. Profesor Državnog univerziteta u Arizoni, Subbarao Kambhampati, rekao je da bi tehnologija mogla da se koristi za „lude, zabrinjavajuće aplikacije, a to uključuje i deepfakes“.
Text-to-image generator ostaje u beta verziji, ali broj korisnika raste pošto je OpenAI dao rani pristup većem broju ljudi u julu. OpenAI je krajem avgusta rekao da više od milion ljudi koristi DALL-E. Ostali text-to-image modeli imali su problema sa zloupotrebom poslednjih meseci. Stable Diffusion je koristila veb lokacija 4Chan za generisanje pornografskih slika poznatih ličnosti, izvestio je TechCrunch. Deepfakes takođe koriste sajber kriminalci da napadnu i infiltriraju organizacije. VMware je prošlog meseca objavio bezbednosni izveštaj u kojem su dva od tri ispitanika videla da se zlonamerni deepfakes koriste kao deo sajber napada.
Bez obzira na prednosti i rizike ove tehnologije, text-to-image tržište je ove godine poraslo, sa konkurentskim modelima koje su razvili tehnološki giganti. Google Research je u maju otkrio sopstveni text-to-image generator pod nazivom Imagen. Google tim koji stoji iza modela rekao je da ima „neviđen stepen fotorealizma“ i dubok nivo razumevanja jezika. Meta je ušla u arenu za pretvaranje teksta u sliku u julu, kada je otkrila sopstveni model pod nazivom Make-A-Scene. Meta je rekao da ovaj sistem prihvata grube skice od korisnika da usmerava AI pre nego što se kreira konačna slika. Javno dostupan text-to-image generator pod nazivom Dall-E Mini privukao je veliku pažnju na internetu ranije ove godine. Uprkos sličnom imenu, ovaj model nije kreirao OpenAI, već inženjer mašinskog učenja Boris Dajma.
Izvor: Siliconrepublic