Top50 2024

AI ima opasan problem sa pristrasnošću 

AI sada pomaže donošenju brojnih odluka koje menjaju život, od procene zahteva za kredit do određivanja zatvorskih kazni.

PCPress.rs Image

Najbolji saveti stručnjaka za etiku mašinskog učenja

Zagovornici ovog pristupa tvrde da on može eliminisati ljudske predrasude, ali kritičari upozoravaju da algoritmi mogu da pojačaju naše predrasude – čak ni ne otkrivajući kako su doneli odluku. Ovo može dovesti do toga da sistemi veštačke inteligencije dovedu do nepravednog hapšenja crnaca ili da službe za decu nepravedno ciljaju na siromašne porodice. Žrtve su često iz grupa koje su već marginalizovane. Alehandro Saucedo, glavni naučnik na Institutu za etičku veštačku inteligenciju i direktor inženjeringa u ML startapu Seldon, upozorava organizacije da pažljivo razmisle pre nego što primene algoritme. Ovo su njegovi saveti za ublažavanje rizika.

Objašnjivost

Sistemi mašinskog učenja treba da obezbede transparentnost. Ovo može biti izazov kada se koriste moćni AI modeli, čiji ulazi, operacije i ishodi nisu očigledni ljudima. Objašnjivost se godinama reklamira kao rešenje, ali efikasni pristupi ostaju nedostižni. Alati za objašnjavanje mašinskog učenja mogu и sami biti pristrasni. Ako ne koristite relevantnu alatku ili ako koristite određeni alat na način koji nije tačan ili ne odgovara svrsi, dobijate netačna objašnjenja. Ljudski nadzor i praćenje mogu smanjiti rizike. Saucedo preporučuje identifikaciju procesa i dodirnih tačaka koje zahtevaju prisustvo čoveka u postupku. Ovo uključuje ispitivanje osnovnih podataka, modela koji se koristi i svih predrasuda koje se pojave tokom primene. Cilj je da se identifikuju dodirne tačke koje zahtevaju ljudski nadzor u svakoj fazi životnog ciklusa mašinskog učenja. U idealnom slučaju, ovo će osigurati da odabrani sistem odgovara svrsi i bude relevantan za slučaj upotrebe.

Pročitajte i:  Google i Volkswagen pokreću novu saradnju

Odgovornost

Nivo ljudske intervencije treba da bude proporcionalan rizicima. Algoritam koji preporučuje pesme, na primer, neće zahtevati toliko nadzora kao onaj koji diktira uslove kaucije. U mnogim slučajevima, napredni sistem će samo povećati rizike. Modeli dubokog učenja, na primer, mogu dodati sloj složenosti koji uzrokuje više problema nego što ih rešava. Ako ne možete da razumete nejasnoće alata koji uvodite, ali razumete da rizici imaju velike uloge, to vam govori da je to rizik koji ne bi trebalo da preuzmete, kaže Saucedo. Operateri sistema veštačke inteligencije takođe moraju da opravdaju organizacioni proces oko modela koje uvode. Ovo zahteva procenu čitavog lanca događaja koji vodi do odluke, od nabavke podataka do konačnog rezultata, što uključuje obezbeđivanje sredstava za analizu puta do ishoda, podataka o tome koji su stručnjaci iz domena bili uključeni i informacija o procesu potpisivanja. Potreban vam je okvir odgovornosti kroz robusnu infrastrukturu i snažan proces koji uključuje stručnjake iz domena relevantne za rizik uključen u svakoj fazi životnog ciklusa.

Pročitajte i:  Šta je Veo?

Bezbednost

Kada sistemi veštačke inteligencije pođu po zlu, posledice može snositi i kompanija koja ih je primenila. Ovo može biti posebno štetno kada se koriste osetljivi podaci, koje loši akteri mogu ukrasti ili manipulisati. Ako se artefakti eksploatišu, u njih se može ubrizgati zlonamerni kod, kaže Saucedo. To znači da kada rade u proizvodnji, mogu da izdvajaju tajne ili dele promenljive okruženja. Lanac nabavke softvera dodaje dodatne opasnosti. Organizacije koje koriste uobičajene alate za nauku o podacima kao što su TensorFlow i PyTorch uvode dodatne zavisnosti, što može povećati rizike. Nadogradnja bi mogla da dovede do kvara sistema mašinskog učenja, a napadači mogu da ubace malver na nivou lanca snabdevanja. Posledice mogu da pogoršaju postojeće predrasude i izazovu katastrofalne neuspehe. Saucedo ponovo preporučuje primenu najboljih praksi i ljudsku intervenciju kako bi se umanjili rizici.

Sistem veštačke inteligencije može obećati bolje rezultate od ljudi, ali bez njihovog nadzora, rezultati mogu biti katastrofalni.

Izvor: Thenextweb

Facebook komentari:
Računari i Galaksija
Tagovi: ,