BIZIT 11 - prvi dan

Bela kuća objavila opsežni dokument sa smernicama o AI za saveznu vladu

Prošlo je pet meseci otkako je predsednik Džo Bajden potpisao izvršnu naredbu za rešavanje brzog napretka veštačke inteligencije. Bela kuća danas čini još jedan korak napred u primeni EO sa politikom koja ima za cilj da reguliše upotrebu veštačke inteligencije od strane savezne vlade. Zaštitne mere koje agencije moraju da imaju uključuju, između ostalog, načine za ublažavanje rizika od algoritamske pristrasnosti.

PCPress.rs Image

Ipak može imati uticaj na bezbednost

Kamala Haris je najavila tri obavezujuća zahteva prema novoj politici Kancelarije za upravljanje i budžet. Prvo, agencije će morati da obezbede da svi alati veštačke inteligencije koje koriste „ne ugroze prava i bezbednost američkog naroda“. Oni imaju rok do 1. decembra da se uvere da imaju „konkretne mere zaštite“ kako bi bili sigurni da sistemi veštačke inteligencije koje koriste ne utiču na bezbednost ili prava Amerikanaca. U suprotnom, agencija će morati da prestane da koristi AI proizvod osim ako njeni čelnici ne mogu opravdati da bi ukidanje sistema imalo „neprihvatljiv“ uticaj na kritične operacije.

Pročitajte i:  Kako prepoznati slike koje je generisao neki AI

Prema politici, smatra se da sistem veštačke inteligencije utiče na bezbednost ako se „koristi ili se očekuje da će se koristiti u uslovima stvarnog sveta za kontrolu ili značajan uticaj na ishode“ određenih aktivnosti i odluka. To uključuje održavanje izbornog integriteta i glasačke infrastrukture; kontrola kritičnih bezbednosnih funkcija infrastrukture kao što su vodovodni sistemi, hitne službe i električne mreže; autonomna vozila; i upravljanje fizičkim pokretima robota na „radnom mestu, u školi, stambenom, transportnom, medicinskom ili policijskom okruženju“.

Osim ako nemaju odgovarajuće zaštitne mere ili mogu na drugi način opravdati njihovu upotrebu, agencije će takođe morati da odbace sisteme veštačke inteligencije koji krše prava Amerikanaca. Svrhe za koje politika pretpostavlja da utiču na prava definisane uključuju prediktivni rad policije; praćenje društvenih medija za sprovođenje zakona; otkrivanje plagijata u školama; blokiranje ili ograničavanje zaštićenog govora; otkrivanje ili merenje ljudskih emocija i misli; skrining pre zapošljavanja; i „repliciranje lika ili glasa osobe bez izričitog pristanka“.

Kada je u pitanju generativna AI, politika predviđa da agencije treba da procene potencijalne koristi. Svi oni takođe moraju da „uspostave adekvatne zaštitne mere i mehanizme nadzora koji omogućavaju da se generativna veštačka inteligencija koristi u agenciji bez predstavljanja nepotrebnog rizika“.

Pročitajte i:  iPhone 16 - Apple Intelligence ovog meseca 

Drugi uslov će naterati agencije da budu transparentne u vezi sa sistemima veštačke inteligencije koje koriste. „Danas predsednik Bajden i ja zahtevamo da svake godine američke vladine agencije objavljuju onlajn listu svojih sistema veštačke inteligencije, procenu rizika koji ti sistemi mogu predstavljati i kako se upravlja tim rizicima“, rekla je Harisova.

Kao deo ovog napora, agencije će morati da objave kod, modele i podatke u vlasništvu vlade, sve dok to neće štetiti javnosti ili vladinim operacijama. Ako agencija ne može da otkrije specifične slučajeve upotrebe veštačke inteligencije iz osetljivih razloga, i dalje će morati da izveštava o metrikama.

Na kraju, ali ne i najmanje važno, savezne agencije će morati da imaju interni nadzor nad njihovom upotrebom veštačke inteligencije. To uključuje svako odeljenje koje imenuje glavnog službenika za veštačku inteligenciju da nadgleda svu upotrebu AI od strane agencije. „Ovo je da bi se osiguralo da se AI koristi odgovorno, shvatajući da moramo imati više rukovodioce širom naše vlade koji imaju poseban zadatak da nadgledaju usvajanje i upotrebu veštačke inteligencije“. Mnoge agencije će takođe morati da imaju upravne odbore za veštačku inteligenciju do 27. maja.

Pročitajte i:  Infosys i Microsoft proširuju partnerstvo

Izvor: Engadget

Facebook komentari:
Računari i Galaksija
Tagovi: