Top50 2024

Koliko je AI rizična? 

Važan problem sa veštačkom inteligencijom (AI) na koji ukazuje diskusija o tome da li je dobra ideja da se AI koristi za napredne sisteme za pomoć vozaču (ADAS).  Dok je automobil u pokretu, ukoliko nešto krene naopako, veoma je teško otkriti zašto je veštačka inteligencija donela tu pogrešnu odluku, pa je stoga veoma nejasno kako sprečiti da se to ne ponovi. 

PCPress.rs Image

 To je fundamentalni problem sa korišćenjem veštačke inteligencije za bilo koje kritične aplikacije – ne znamo kako donosi odluke. Kako je rekao profesor Christian Lovis sa Medicinskog fakulteta Univerziteta u Ženevi, „Način na koji ovi algoritmi funkcionišu je, u najmanju ruku, neproziran.“ 

 Metode interpretacije su razvijene da bi se otkrilo koje podatke je sistem veštačke inteligencije koristio i kako su oni ponderisani. „Znati koji su elementi nagnuli vagu u korist ili protiv rešenja u određenoj situaciji, omogućavajući na taj način izvesnu transparentnost, povećava poverenje koje im se može ukazati“, rekao je docent Gianmarco Mengaldo, direktor MathEKSLab-a na Nacionalnom univerzitetu Singapurski koledž za dizajn i inženjering. Međutim, različite metode interpretacije AI često daju veoma različite rezultate, čak i kada se primenjuju na isti skup podataka i zadatak. 

Dakle, da bi se pozabavio tim problemom, tim istraživača sa Univerziteta u Ženevi, Univerzitetskih bolnica u Ženevi i Nacionalnog univerziteta u Singapuru razvio je novu metodu interpretabilnosti za dešifrovanje zašto i kako je doneta odluka AI

Pročitajte i:  Automatizacija posla: AI roboti sortiraju otpad

 Na primer, kada softver za veštačku inteligenciju analizira slike, fokusira se na nekoliko karakteristika kako bi mu omogućio, recimo, razliku između slike psa i slike mačke. „Isti princip se primenjuje i na analizu vremenskih sekvenci: mašina treba da bude u stanju da izabere elemente kao što su vrhovi koji su izraženiji od drugih — da bi zasnivala svoje rezonovanje. Sa EKG signalima, to znači usaglašavanje signala sa različitih elektroda da bi se procenile moguće disonance koje bi bile znak određene srčane bolesti“, rekao je prvi autor njihove studije, Hugues Turbé. 

 Istraživači su razvili dve nove metode evaluacije kako bi pomogli da se razume kako AI donosi odluke: jednu za identifikaciju najrelevantnijih delova signala i drugu za procenu njihovog relativnog značaja u pogledu konačnog predviđanja. Testirali su svoje metode na skupu podataka koji su razvili da bi potvrdili pouzdanost. (Ovaj skup podataka je dostupan naučnoj zajednici da lako proceni bilo koju novu veštačku inteligenciju koja ima za cilj tumačenje vremenskih sekvenci.) 

Pročitajte i:  Tehnološki giganti pokušavaju da ublaže Zakon o veštačkoj inteligenciji EU

Nacionalni institut za standarde i tehnologiju (NIST) objavio je svoj Okvir za upravljanje rizikom veštačke inteligencije (AI RMF 1.0), dokument sa uputstvom za dobrovoljnu upotrebu od strane organizacija koje dizajniraju, razvijaju, primenjuju ili koriste AI sisteme kako bi pomogli u upravljanju mnogim rizicima AI tehnologije. Dokument se bavi ključnim faktorom koji razlikuje AI od tradicionalnog softvera — ljudima. 

 „Iako postoji bezbroj standarda i najboljih praksi koje pomažu organizacijama da ublaže rizike tradicionalnog softvera ili sistema zasnovanih na informacijama, rizici koje predstavljaju sistemi veštačke inteligencije su na mnogo načina jedinstveni. Sistemi veštačke inteligencije, na primer, mogu biti obučeni za podatke koji se mogu promeniti tokom vremena, ponekad značajno i neočekivano, utičući na funkcionalnost i pouzdanost sistema na načine koje je teško razumeti. Sistemi veštačke inteligencije su po svojoj prirodi društveno-tehničke prirode, što znači da su pod uticajem društvene dinamike i ljudskog ponašanja. Rizici i koristi od veštačke inteligencije mogu da nastanu u interakciji tehničkih aspekata i društvenih faktora koji se odnose na način na koji se sistem koristi, njegove veze sa drugim sistemima veštačke inteligencije, ko njime upravlja i društveni kontekst u kome je raspoređen.” 

Pročitajte i:  Google kreirao Jules AI agenta

 Dr Apostol Vassilev, supervizor istraživačkog tima u Odeljenju za računarsku bezbednost na NIST-u, proširio je ovu temu. Na primer, kako Vassilev ističe, sistemi mašinskog učenja (podoblast veštačke inteligencije) se obučavaju na osnovu istorijskih podataka. Ali ti podaci „odražavaju istorijske pristrasnosti u to vreme“. 

„Naučio sam kroz rad psihologa dobitnika Nobelove nagrade Daniel Kahneman i drugih iz bihejvioralne ekonomije da su ljudi užasni u tome da budu dosledni u rasuđivanju i pronalaženju najboljih rešenja. Fasciniran sam kako mi kao ljudi možemo biti i veoma ograničeni i tako kreativni i sposobni za duboko razmišljanje“, rekao je Vassilev. 

 AI može biti neverovatno korisna u brzom prosejavanju izuzetno velikih količina podataka da bi se izvukle informacije otkrivanjem značajnih obrazaca — računari su odlični u tome. Jedini problem je što je veštačka inteligencija zaista partnerstvo između računara i ljudi koje podložno greškama. Ideje ljudi o onome što je značajno se uvek razvijaju – to je ono što je nauka – to je proces koji se neprestano razvija. Dakle, rad grupa poput onih koje sam pomenuo ovde je od vitalnog značaja za stalno praćenje i procenu AI sistema. 

Izvor: techbriefs.com

Facebook komentari:
Računari i Galaksija
Tagovi: , , , ,