Može li Google da održi obećanje o stvaranju etičkog AI-a?

Google-ova saradnja sa američkim Ministarstvom odbrane u svrhu razvoja AI sistema za flotu ratnih dronova za potrebe američke vojske, pod nazivom projekat Maven, pokazala se kao mač sa dve oštrice za tehnološku kompaniju. Sa jedne strane, ugovor sa Pentagonom je bio prilično unosan, vredan čak 250 miliona dolara godišnje.

PCPress.rs Image

Sa druge strane, reakcija javnosti na vest da kompanija pomaže vladi da izgradi efikasnije mašine za ubijanje je bila trenutna, nepokolebljiva i krajnje nemilosrdna. Desetak zaposlenih napustilo je kompaniju u znak protesta, a još 4.000 je potpisalo peticiju kako bi izrazili svoje nezadovoljstvo menadžmentu kompanije i tražili da raskinu ugovor. Reakcije su bile tako jake da je Google morao da izađe u javnost i obeća da neće obnoviti ugovor nakon njegovog završetka sledeće godine.

Sada, je CEO kompanije, Sundar Pichai, otišao korak dalje kako bi smirio javnost, i objavio svoju verziju Asimova „Tri zakona“. Naravno, Google je dobro poznat u svetu AI-a. Kompanija već koristi različite oblike AI-a u nizu svojih proizvoda, od Gmail-a i Photos-a do digitalnog asistenta koji poziva frizerski salon i sistema za generisanje talasa koji omogućava pomoćniku da govori. Međutim, da li kompaniji koja je jednostrano uklonila svoj vlastiti princip „Don’t be evil“ iz uobičajene prakse, stvarno može da se veruje da će uraditi pravu stvar kada je stvaranje i razvijanje veštačke inteligencije u pitanju?

PCPress.rs Image

  1. Biti društveno koristan

Pichai-ov prvi stav izgleda kao da svi mogu lako da stanu iza njega, jer, koja je poenta razvijanja novih tehnologija ako one neće služiti za dobrobit društva u celini? Nažalost, Pichai ne ulazi ni u kakve značajne detalje u svom postu, tako da je teško otkriti šta ovo zapravo znači. „Pošto razmatramo potencijalni razvoj i upotrebu AI tehnologija“, napisao je on, „uzećemo u obzir širok spektar društvenih i ekonomskih faktora i nastavićemo tamo gde verujemo da ukupne pretpostavljene koristi značajno prevazilaze predvidive rizike i nedostatke.“ To zvuči sjajno, ali ko zapravo odlučuje koji rizici prevazilaze koje koristi? Na primer, u sredu, akcionari kompanije odbacili su plan za povećanje nivoa raznovrsnosti kompanije, koji je široko podržan od strane zaposlenih u Google-u. Da li ćemo poverovati da će ovi akcionari delovati protiv svojih finansijskih interesa u ime izbegavanja društvenih zamki? Istorija kapitalizma kaže ne.

  1. Izbegavanje stvaranja ili jačanja nepravednih predrasuda

„Nastojaćemo da izbegavamo nepravedan uticaj na ljude“, napisao je Pichai, „naročito onih koji se odnose na osetljive karakteristike kao što su rasa, etnička pripadnost, rod, nacionalnost, dohodak, seksualna orijentacija, sposobnosti i političko ili versko uverenje“. Ako je Google sposoban da obučava AI bez prenošenja implicitne pristrasnosti, oni su bukvalno jedina kompanija koja je to ikada mogla da učini. Pogledajte: Beauty.AI pageant bot, Microsoft-ov Tay, Microsoft-ov Zo, i naizgled svaki AI za prepoznavanje lica kreiran do sada.

Pročitajte i:  Google Maps na Androidu napokon dobija korisnu funkciju za praćenje vremena

PCPress.rs Image

  1. Izgradnja i testiranje radi sigurnosti

„Dizajniraćemo naše AI sisteme da budu odgovarajuće oprezni“, napisao je Pichai, „i radićemo na tome da ih razvijemo u skladu sa najboljim praksama u istraživanju sigurnosti AI-a“. Ovo je jedno obećanje koje Google može lako da održi. Projekat Maven je, na primer, licenciran kao open source, što omogućava daleko veći stepen transparentnosti nego što bi inače bilo moguće. Štaviše, Google je već uključen u brojne istraživačke organizacije za AI, uključujući Machine Intelligence Research Institute, koji se fokusira upravo na AI sigurnosne procese, i DeepMind Ethics & Society, koji nastoji da istražuje etiku AI-a. Sve dok Google ostane posvećen prikazivanju svog rada, ne vidimo razlog zašto kompanija ne može ostati standardni nosilac za siguran i pouzdan razvoj AI-a.

  1. Biti odgovoran ljudima

„Naše AI tehnologije će pratiti odgovarajući ljudski pravac i biće podložne ljudskoj kontroli“, napisao je Pichai. Problem sa ovom tvrdnjom je, poput zaliha nuklearnog oružja u Americi, nije sama tehnologija ona koja je problem, već osoba koja ima ovlašćenje da je koristi.

Pročitajte i:  Google deli uočeno curenje nafte i gasa

 PCPress.rs Image

  1. Uključiti principe privatnosti

S obzirom na to kako je Facebook pratio skandal Cambridge Analytica, jedino ima smisla da se Google predstavi kao uzor privatnosti. Nažalost, istorijsko ponašanje kompanije ne čini mnogo da podrži tu tvrdnju. Google se trenutno suočava sa kolektivnom tužbom u Velikoj Britaniji zbog prikupljanja ličnih podataka korisnika preko Safari pretraživača. Američki senatori podnose zahtev FTC-u kako bi istražili kompanijinu zbirku podataka o lokacijama. Takođe, i YouTube dolazi u žižu dešavanja zbog navodnog prikupljanja podataka o deci mlađoj od 13 godina.

  1. Zadržati visok standard naučne ekspertize

„Težimo visokim standardima naučne ekspertize dok radimo na napretku razvoja AI-a“, napisao je Pichai. „Odgovorno ćemo podeliti AI znanja objavljivanjem edukativnih materijala, najboljih praksi i istraživanja koja će omogućiti većem broju ljudi da razviju korisne AI aplikacije.“ Kao i prethodne tri tačke, ovo ne bi trebalo da predstavlja kompaniji veliki problem da se pridržava. Za razliku od tajnovitijih kompanija poput Apple-a ili Facebook-a, Google je dugo bio otvoren u svojim istraživačkim naporima. Google je otvorio AI istraživačke jedinice širom Velike Britanije i Kanade u kojima je zaposlio akademske istraživače, udružio se sa univerzitetima poput UC Berkeley, Harvard i MIT, pa čak i sarađivao sa drugim tehnološkim kompanijama za razvoj smernica o etičkom razvoju kao deo Partnership on AI.

Pročitajte i:  Sora: AI video sadržaji sve savršeniji

PCPress.rs Image

  1. Postati dostupan za potrebe koje odgovaraju tim principima

U suštini, Pichai tvrdi da će njegova kompanija razviti samo AI koji se uklapa u etički okvir izložen u prvih šest tačaka. On obećava da će Google „raditi na ograničavanju potencijalno štetnih ili zlonamernih aplikacija“ mašina koje stvara na osnovu prirode tehnologije, namere za njeno korišćenje i njene primarne upotrebe, kao i prirode uključivanja Google-a u projekat. Posebno navodi autonomno oružje, AI za nadzor, „tehnologije čija je svrha u suprotnosti sa široko prihvaćenim principima međunarodnog prava i ljudskih prava“ i onih koji „uzrokuju ili će verovatno izazvati ukupnu štetu“. Naravno, kako će kompanija utvrditi šta predstavlja prihvatljiv nivo štete, poput prve tačke gore navedene, ostaje da se vidi.

Sve u svemu, naravno, ovo zvuči kao odlične aksiome kojih se treba pridržavati. Ali ono što Pichai nije razjasnio je da li će postojati neki mehanizam izvršavanja ovih smernica ili kakve vrste kazni će kompanija imati ako ih prekrši. Zbog toga što nikakva priznanja krivice (lat. mea culpas), izvinjenja ili senatorska nadgledanja neće biti dovoljna kada osećajan AI pređe granice i sruši čovečanstvo pod čizmom robotskog ustanka.

Izvor: Engadget

Facebook komentari:
SBB

Tagovi: , , , , , , , , , , , , , , , ,