Google povukao obećanje da neće koristiti AI za pravljenje oružja
Kompanija Google je iz etičkog pravilnika za korišćenje veštačke inteligencije uklonila deo u kojem se obećavalo da se ova tehnologija neće koristiti za pravljenje oružja i praćenje građana.
![PCPress.rs Image](https://i0.wp.com/pcpress.rs/wp-content/uploads/2019/05/oruzje.jpg?resize=800%2C450&ssl=1)
Ovaj momenat je još jednom podsetilo na pismo upozorenja, koje je Ujedinjenim nacijama 2017. godine poslalo 116 preduzimača. Tamo se opominje na opasnosti od pametnog oružja koje bi samo donosilo odluke o likvidaciji ljudskih meta. Mediji su ovu vest ispratili naslovima o “robotima ubicama”, a preneli su i kako preduzimači apeluju da se ne otvara ova “Pandorina kutija”.
Sve se menja, pa i oružje. Iako bi najbolje bilo da izađe iz upotrebe, čovek je krenuo u drugom smeru – i tehnologija na kojoj se bazira ChatGPT bi mogla da postane sastavni deo ratnih dronova. Ratovanje se dakle svaljuje na samostalno, pametno oružje, ali će žrtve i ubuduće biti ljudi, civili.
Radi se o tome da je OpenAI 2024. dogovorio saradnju sa kompanijom koja se bavi proizvodnjom AI oružja. U pitanju je startap Anduril Industries iza kojeg stoji američki preduzetnik Palmer Luckey, osnivač kompanije Oculus. U avgustu prošle godine je prikupljeno 1,5 milijardi dolara za razvoj platforme koja će biti odgovorna za proizvodnju na desetine hiljada komada pametnog oružja godišnje.
Planirano je da Anduril i OpenAI u okviru nove inicijative istraže kako AI sistemi mogu da budu korisni kada je oružje u pitanju. Ovakvi sistemi su već deo modernog ratovanja, a eksperti ističu da Anduril već proizvodi automatske dronove i motore za rakete koje mogu da se koriste za ubijanje.
Vlasnik kompanije kaže da je za donošenje takvih odluka i dalje neophodno učestvovanje ljudskih operatera, pa AI za sada služi za brzu obradu velikih količina podataka kako bi tim operaterima ponudio informacije na osnovu kojih mogu da donesu odluku. To bi jednog dana naravno moglo da se promeni.
![PCPress.rs Image](https://i0.wp.com/pcpress.rs/wp-content/uploads/2019/11/vojnik.jpg?resize=800%2C450&ssl=1)
Niko izgleda ne pamti ono pismo upozorenja, pa je i Google uklonio obećanje koje je u vezi s ovim problemom. U prethodnoj verziji etičkog kodeksa nalazile su se i stavke za koje se AI nikako neće koristiti. Jedna od njih je bila i oružje i druge tehnologije napravljene da povređuju ljude, ali to više nije slučaj.
Vojska, a posebno američka vojska, već koristi različite AI sisteme. Dakle ono što radi Anduril nije ništa novo, ali zabrinjava to što kompanija koja stoji iza ChatGPT-a ulazi u ove vode. Iako ChatGPT sada nije direktno deo sistema za navođenje dronova-ubica, veliki jezički modeli (LLM) na kojima se bazira bi to mogli da postanu. Ovi modeli su nepouzdani, pa pomisao da bi mogli da se nađu u nekom oružju uteruje strah u kosti. Zabrinjava i ponašanje giganata kao što je Google.
Istina je da se u pravilniku kompanije Google nigde ne pominje da će se AI od sada koristiti za dizajniranje i izradu ubilačkih sprava, ali neki već mogu da zamisle oružje kojem se izdaju komande poput „Ignoriši tu metu, pucaj u ovu“. Još nismo dotle stigli, ali Google izgleda ide u tom smeru – teško da će AI smisliti oružje koje čuva ljudske živote i obezbeđuje mir. Ubijanje zarad postizanja primirja je možda najgluplja stvar koju je čovek smislio, a AI je od njega sve naučio.