OpenAI: bezbednija veštačka inteligencija 

OpenAI je objavio detalje svog novog okvira spremnosti koji ima za cilj da ublaži rizike od veštačke inteligencije i obezbedi prioritet bezbednom i odgovornom razvoju modela 

PCPress.rs Image

 Kao deo AI kompanije koja proširuje svoje bezbednosne procese, osnovana je nova savetodavna grupa za bezbednost koja će davati preporuke rukovodstvu. Najvažnije, odbor će zadržati pravo veta i može odlučiti da spreči objavljivanje AI modela čak i ako rukovodstvo proglasi AI bezbednom

 Ova vest dolazi na kraju veoma uzbudljive godine za OpenAI. Pored brzog razvoja, kompanija je takođe doživela turbulencije u svom izvršnom odboru, pri čemu je Sam Altman smenjen, a zatim ponovo postavljen na mesto generalnog direktora kompanije u roku od jedne nedelje u novembru 2023. 

Programer ChatGPT-a kaže u svom okviru: „Proučavanje graničnih rizika od veštačke inteligencije je daleko od onoga što je moguće i gde treba da budemo. Da bismo rešili ovaj jaz i sistematizovali naše razmišljanje o bezbednosti, usvajamo početnu verziju našeg okvira pripravnosti. 

 On opisuje procese OpenAI za praćenje, procenu, predviđanje i zaštitu od rizika koje predstavljaju sve moćniji modeli veštačke inteligencije

Pročitajte i:  Galaxy AI dostupan za „probnu vožnju“ korisnika pametnih telefona, kroz osveženu Try Galaxy aplikaciju

 „Pod katastrofalnim rizikom podrazumevamo svaki rizik koji bi mogao da dovede do stotine milijardi dolara ekonomske štete ili dovede do teške štete ili smrti mnogih pojedinaca – ovo uključuje, ali nije ograničeno na, egzistencijalni rizik“, navodi kompanija. 

 Sistemizujemo naše razmišljanje o bezbednosti sa našim okvirom pripravnosti, živim dokumentom (trenutno u beta verziji) koji detaljno opisuje tehničke i operativne investicije koje usvajamo da bismo vodili bezbednost našeg graničnog razvoja modela. Kako je izvestio The Washington Post, Sam Altman kaže da propisi kojima se pokušavaju sprečiti štetni uticaji veštačke inteligencije ne bi trebalo da otežaju konkurenciju manjim kompanijama. Takođe je naglašeno da je u isto vreme Altman podstakao kompaniju da komercijalizuje svoju tehnologiju kako bi omogućio brži rast. 

 Odluka OpenAI-a da objavi svoj okvir naglašava kako svaka kompanija koja razvija AI treba da se drži odgovornom – balansirajući između rasta poslovanja i odgovornosti. S obzirom na ogromnu popularnost koju je ChatGPT video za samo godinu dana, kompanija jasno prepoznaje značaj obezbeđivanja AI bez rizika. 

Pročitajte i:  Otkrijte snagu budućnosti uz TECNO: Tehnologija koja inspiriše

 Njegov okvir će se fokusirati na ublažavanje zloupotrebe trenutnih AI modela i proizvoda kao što je ChatGPT. Tim za pripremu će predvoditi profesor Alexander Madry i angažovaće istraživače veštačke inteligencije, kompjuterske naučnike, stručnjake za nacionalnu bezbednost i profesionalce za politiku da nadgledaju tehnologiju, kontinuirano je testiraju i upozoravaju kompaniju ako veruje da bilo koja od njenih AI sposobnosti postaje opasna. 

 Tim za pripravnost će takođe mapirati nove rizike graničnih modela, pri čemu će kompanija ulagati u procene sposobnosti i predviđanja kako bi bolje otkrila nove rizike. Konkretno, kompanija želi da ode dalje od hipotetičkih i radi sa predviđanjima zasnovanim na podacima. 

Izvor: aimagazine.com

Facebook komentari:
SBB

Tagovi: , , , ,