Google-ov projekat Nimbus je budućnost zla
Google pravi mnogo gluposti. Sve gigantske korporacije su iste u tom pogledu. Ali potreban je poseban trud da se učini nešto zaista strašno. Tu se pojavljuje Google-ov projekat Nimbus.
AI može biti zastrašujuća kada se koristi na užasne načine
Projekat Nimbus je zajednički napor Googlea, Amazona i izraelske vlade koji pruža futurističke mogućnosti nadzora, korišćenjem naprednih modela mašinskog učenja. Hteli mi to ili ne, to je deo budućnosti državne bezbednosti, i nije ništa strašnije od mnogih drugih sličnih projekata. Mnogi od nas čak koriste sličnu tehnologiju u i oko naših domova. Tamo gde stvari postaju mračne i ružne je ono što Google kaže o mogućnostima Project Nimbus koristeći tehnologiju kompanije:
Dokumenti o obuci za Nimbus naglašavaju „mogućnosti otkrivanja ‘lica, orijentira lica, emocija’ Google-ovog Cloud Vision API-ja”, a na jednom vebinaru za obuku Nimbus-a, Google inženjer je za izraelskog klijenta potvrdio da bi bilo moguće “obraditi podatke preko Nimbus-a kako bi se utvrdilo da li neko laže”. Da, kompanija koja nam je dala strašno loše YouTube algoritme sada želi da proda algoritme kako bi utvrdila da li neko laže policiju. Razmislite o tome.
Ovo je nauka koju je Microsoft napustio zbog njenih inherentnih problema. Ceo projekat je osmišljen kako bi izraelska vlada mogla da sakrije šta radi. Prema Džeku Poulsonu, bivšem šefu bezbednosti za Google Enterprise, jedan od glavnih ciljeva projekta Nimbus je „sprečavanje nemačke vlade da traži podatke u vezi sa Izraelskim odbrambenim snagama za Međunarodni krivični sud“. Zaista, međutim, nije važno kako se osećate u vezi sa sukobom između Izraela i Palestine. Nema dobrog razloga da se ova vrsta tehnologije pruži bilo kojoj vladi u bilo kom obimu. Navodne mogućnosti Nimbusa su zastrašujuće, čak i ako je Google-ov Cloud Vision API bio 100% tačan, 100% vremena.
Zamislite policijske kamere koje koriste veštačku inteligenciju da pomogne u odluci da li da vas optuže i uhapse ili ne. Ipak, sve postaje zastrašujuće kada uzmete u obzir koliko često sistemi za mašinsko učenje greše. Ovo nije samo problem Google-a. Sve što treba da uradite je da pogledate moderaciju sadržaja na YouTube-u, Facebook-u ili Twitter-u. 90% početnog posla obavljaju računari koristeći algoritme za moderiranje koji suviše često donose pogrešne odluke. Međutim, projekat Nimbus bi učinio više od samog brisanja vašeg lukavog komentara — mogao bi vas koštati života.
Nijedna kompanija ne bi trebalo da omogući upotrebu ove vrste veštačke inteligencije dok tehnologija ne sazre do stanja u kojem nikada nije pogrešno, a to se nikada neće dogoditi. Svako razuman je za pronalaženje loših momaka i preduzimanje nečega u vezi sa njima kao i većina drugih. Takođe, svako razuman razume da je sprovođenje zakona, bilo da je lokalna policijska uprava ili IDF, neophodno zlo. Korišćenje veštačke inteligencije za to je nepotrebno zlo. Niko ne kaže da bi Google trebalo samo da se drži pisanja softvera koji pokreće telefone koje volite, a da ne pokušava da se razgrana. Samo iz današnje perspektive, možemo da vidimo da postoji ispravan i pogrešan put — Google je ovde izabrao pogrešan put, a sada je zapelo jer uslovi ugovora ne dozvoljavaju Googleu da prestane da učestvuje. Trebalo bi da budete dobro obavešteni i znate kada kompanija koja je osnovana po principu „Ne budi zao“ zaokrene puni krug i postane zlo na koje nas je upozoravala.
Izvor: Androidcentral