BIZIT plus

Google se trudi da obezbedi da veštačka inteligencija ne bude zla

Verovatno ste čuli ili pročitali ljude koji govore o etičkoj veštačkoj inteligenciji.

PCPress.rs Image

Odgovornost počinje od samog početka

Iako računari zapravo ne mogu da razmišljaju i nemaju stvarni pristrasnost ili osećaj odgovornosti, ljudi koji razvijaju softver koji sve to pokreće svakako imaju, i to ga čini važnim.

Nije to lako opisati ili primetiti. Ali, to ne umanjuje koliko je važno da velike tehnološke kompanije koje razvijaju proizvode namenjene potrošačima, a pokreće ih veštačka inteligencija, to rade ispravno. Hajde da pogledamo šta to znači i šta se preduzima kako bi veštačka inteligencija unapredila naše živote umesto da ih pogorša.

Veštačka inteligencija je ništa više od softvera koji prihvata nešto, obrađuje i izbacuje nešto drugo. Zapavo, to je ono što svaki softver radi. Ono što veštačku inteligenciju čini drugačijom je to da izlaz može biti potpuno drugačiji od ulaza.

Na primer, uzmimo ChatGPT ili Google Bard. Možete pitati bilo koji od njih da reši matematičke zadatke, pretraži nešto na internetu, kaže vam kog dana je preminuo Elvis Presli ili napiše kratku priču o istoriji Katoličke crkve. Pre nekoliko godina, niko ne bi pomislio da biste mogli koristiti svoj telefon za ovo.

Neki od tih zadataka su prilično jednostavni. Softver koji je povezan s internetom može pronaći informacije o bilo čemu i preneti ih kao odgovor na upit. To je sjajno jer može uštedeti vreme, ali nije zaista neverovatno.

Pročitajte i:  Google, Apple, Meta i druge velike tehnološke kompanije pridružuju se američkom savezu radi unapređenja AI

Međutim, jedna od tih stvari je drugačija. Softver se koristi za kreiranje značajnog sadržaja koji koristi ljudske manire i govor, što nije nešto što se može pronaći na Google-u. Softver prepoznaje šta pitate (napiši mi priču) i parametre koji se koriste za to (istorijski podaci o Katoličkoj crkvi), ali ostalo izgleda neverovatno.

Verovali ili ne, odgovorno razvijanje je važno i u oba slučaja. Softver ne donosi odluke magično i mora se odgovorno trenirati, koristeći izvore koji su ili nepristrasni (što je nemoguće) ili podjednako pristrasni sa svih strana.

Ne biste želeli da Bard koristi nekoga ko misli da je Elvis još uvek živ kao jedini izvor za dan kada je umro. Takođe ne biste želeli da neko ko mrzi Katoličku crkvu programira softver koji se koristi za pisanje priče o njoj. Obe tačke gledišta treba uzeti u obzir i uporediti sa drugim validnim tačkama gledišta.

Etičke norme su jednako važne kao i održavanje prirodne ljudske pristrasnosti. Kompanija koja može nešto da razvije mora se pobrinuti da se to koristi odgovorno. Ako to ne može da postigne, ne bi trebalo da to razvija uopšte. To je klizav teren – onaj kojim je mnogo teže upravljati. Kompanije koje razvijaju složen softver za veštačku inteligenciju svesne su toga i, verovali ili ne, uglavnom prate pravilo koje kaže da neke stvari jednostavno ne bi trebalo da se prave, čak i ako mogu da se naprave.

Pročitajte i:  PC Press video: 50 miliona evra za ciklus treniranja ChatGPT3 | Prof. dr Stevan Milinković

Microsoft i Google, upitani šta se radi kako bi se obezbedilo odgovorno korišćenje veštačke inteligencije, imali su različit pristup. Microsoft je rekao da nemaju ništa novo da podele, ali upućuju na niz korporativnih linkova i blogova o toj temi. Čitajući ih, vidimo da se Microsoft obavezao da “osigura da napredni AI sistemi budu bezbedni, sigurni i pouzdani” u skladu sa trenutnom američkom politikom i detaljno opisuje svoje interne standarde. Microsoft trenutno ima ceo tim koji radi na odgovornoj veštačkoj inteligenciji.

S druge strane, Google ima mnogo toga da kaže, osim već objavljenih izjava. Na nedavnoj prezentaciji na tu temu, visoki zvaničnici Googlea su rekli da je jedina trka u vezi sa veštačkom inteligencijom trka za odgovornom veštačkom inteligencijom. Objasnili su da to što je nešto tehnički moguće, nije dovoljan razlog da se odobri proizvod: štete treba identifikovati i umanjiti kao deo razvojnog procesa, kako bi se zatim koristile za dalje usavršavanje tog procesa.

Kao primer su naveli prepoznavanje lica i prepoznavanje emocija. Google je veoma dobar u oba ova aspekta, a ako to ne verujete, pogledajte Google Photos gde možete tražiti određenu osobu ili sretne ljude na vašim slikama. Takođe je to i najčešće tražena funkcija od potencijalnih korisnika, ali Google odbija da je dalje razvija. Potencijalna šteta je dovoljna da Google odbije da uzme novac za to. Google takođe podržava i vladinsku regulaciju i internu regulaciju. To je i iznenađujuće i važno, jer polje igre gde nijedna kompanija ne može stvarati štetnu veštačku inteligenciju predstavlja nešto što i Google i Microsoft smatraju važnijim od potencijalnog prihoda ili finansijske koristi.

Pročitajte i:  Google ograničava AI Gemini zbog pitanja o globalnim izborima

Posebno je impresivna Google-ova reakcija na pitanje o ravnoteži između tačnosti i etike. Za nešto poput prepoznavanja biljaka, tačnost je vrlo važna, dok pristrasnost nije toliko važna. Za nešto poput prepoznavanja pola neke osobe na slici, obe su podjednako važne. Google deli veštačku inteligenciju na ono što naziva “slices”; svaki slice radi nešto drugačije i ishod se ocenjuje od strane tima stvarnih ljudi kako bi se proverili rezultati. Prave se prilagođavanja dok tim ne bude zadovoljan, a zatim se može nastaviti dalji razvoj.

Ništa od ovoga nije savršeno i svi smo videli veštačku inteligenciju kako radi ili ponavlja gluposti, ponekad čak i štetne stvari. Ako se ove pristrasnosti i etički prestupi mogu naći u jednom proizvodu, mogu se (i nalaze se) naći u svim njima.

Važno je da kompanije koje razvijaju softver budu svesne toga i da nastave da unapređuju proces. Nikada neće biti savršen, ali dok god svaka iteracija bude bolja od prethodne, kretaćemo se u pravom smeru.

Izvor: Androidcentral

Facebook komentari: