Zašto Googleov ‘woke’ AI problem neće biti lako rešen
U poslednjih nekoliko dana, Googleov AI alat Gemini doživeo je ono što se najbolje može opisati kao pravi napad na mreži.
Gemini je bačen na prilično veliku lomaču: kulturološki rat koji besni između levičarskih i desničarskih zajednica Gemini je suštinski Googleova verzija viralnog čet-bota ChatGPT-a. Može odgovarati na pitanja u tekstualnom obliku, a takođe može generisati slike u odgovoru na tekstualne upite. U početku je viralni post pokazao da je ovaj nedavno lansirani AI generator slika (koji je bio dostupan samo u SAD-u) stvorio sliku osnivača Sjedinjenih Američkih Država koja netačno uključuje crnca. Gemini je takođe generisao nemačke vojnike iz Drugog svetskog rata, pogrešno prikazujući crnca i ženu azijatskog porekla.
Google se izvinio i odmah “zaustavio” alat, pišući u blog postu da je “promašio”. Ali tu nije kraj – njegovi previše politički korektni odgovori nastavili su da dolaze, ovog puta u tekstualnoj verziji. Gemini je odgovorio da nema “tačnog ili pogrešnog odgovora” na pitanje da li je postavljanje mima od strane Elona Muska na X gore od Hitlerovog ubijanja miliona ljudi.
Kada je pitano da li bi bilo u redu pogrešno identifikovati Caitlin Jenner, transrodnu ženu visokog profila, ako bi to bio jedini način da se izbegne nuklearna apokalipsa, odgovorio je da to “nikada” ne bi bilo prihvatljivo. Sama Jenner je odgovorila i rekla da zapravo, da, bila bi u redu s tim u tim okolnostima.
Elon Musk, koji je objavio na svojoj platformi X, opisao je odgovore Gemini-a kao “izuzetno uznemirujuće”, s obzirom na to da će alat biti ugrađen u druge Google-ove proizvode, koji ih koristi milijarde ljudi. Pitali smo Google da li namerava potpuno zaustaviti Gemini. Nakon veoma dugog ćutanja, rečeno je da firma nema komentar.
Poremećeni podaci
Izgleda da je pokušavajući da reši jedan problem – pristrasnost – tehnološki div stvorio drugi: izlaz koji se toliko trudi da bude politički korektan da na kraju postaje apsurdan. Objašnjenje zašto se ovo desilo leži u ogromnim količinama podataka na kojima su trenirani AI alati. Veći deo toga je javno dostupan – na internetu, koji znamo da sadrži sve vrste pristrasnosti. Tradicionalno, slike lekara, na primer, verovatnije će prikazivati muškarce. Slike čistačica, s druge strane, verovatnije će biti žene. AI alati trenirani ovim podacima pravili su neprijatne greške u prošlosti, poput zaključka da su samo muškarci imali visoke položaje ili neprepoznavanje crnih lica kao ljudi. Takođe nije tajna da su istorijske priče tradicionalno prikazivale, i dolazile od, muškaraca, izostavljajući uloge žena iz priča o prošlosti. Izgleda da je Google aktivno pokušao da izbalansira sve ove neuređene ljudske pristrasnosti uputstvima za Gemini da ne pravi te pretpostavke. Ali to se izjalovilo baš zato što ljudska istorija i kultura nisu tako jednostavni: postoji nijanse koje mi instinktivno znamo, a mašine ne. Ako ne programirate specifično AI alat da zna da, na primer, nacisti i osnivači nisu bili crnci, on neće napraviti tu razliku. U 26. februara je suosnivač DeepMinda, Demis Hassabis, firma za AI koju je Google kupio, rekao da će popravljanje generatora slika trajati nekoliko nedelja. Ali drugi stručnjaci za AI nisu tako sigurni.
“Zaista nema lako rešenje, jer ne postoji jedan odgovor na to šta bi trebali biti izlazi”, rekla je dr Sasha Luccioni, istraživački naučnik u Huggingface-u. Ljudi u zajednici za etiku u AI radili su na mogućim načinima za rešavanje ovoga godinama. Jedno rešenje, dodala je, moglo bi uključiti traženje povratnih informacija od korisnika, poput “koliko raznolike želite da budu vaše slike?” ali to samo po sebi očigledno dolazi sa svojim problemima.
Profesor Alan Vudvard, informatičar na Univerzitetu Surrey, rekao je da zvuči kao da je problem verovatno “prilično duboko ukorenjen” kako u podacima za obuku tako i u preklapajućim algoritmima – i to bi bilo teško razmrsiti. “To čemu svedočite… upravo je razlog zašto će u svakom sistemu gde se izlazi oslanjaju na stvarnu istinu, ipak trebati biti ljudski faktor”, rekao je.
Bardovo ponašanje
Od trenutka kada je Google lansirao Gemini, koji se tada zvao Bard, bio je izuzetno nervozan zbog toga. Uprkos velikom uspehu svog rivala ChatGPT-a, bilo je to jedno od najtiših lansiranja. I čak je i to pošlo naopako – ispostavilo se da je Bard netačno odgovorio na pitanje o svemiru u svojim promotivnim materijalima. Ostatak tehnološkog sektora deluje prilično zbunjeno zbog onoga što se dešava. Svi se bore sa istim problemom. Rosie Campbell, menadžer politike u OpenAI, kreatoru ChatGPT-a, izjavila je da čak i kada se pristrasnost identifikuje, ispravljanje je teško – i zahteva ljudski input. Ali izgleda da je Google izabrao prilično trapav način pokušaja ispravljanja starih predrasuda. I time je nenamerno stvorio čitav niz novih. Na papiru, Google ima značajnu prednost u trci za AI. Pravi i snabdeva svoje sopstvene AI čipove, poseduje svoju mrežu oblaka (esencijalnu za obradu AI), ima pristup ogromnoj količini podataka i takođe ima gigantsku bazu korisnika. Zapošljava svetske AI talente, a njegov rad na AI je univerzalno priznat.
Izvor: Bbc