Anthropic, Google, Microsoft i OpenAI formiraju bezbednosnu grupu za AI
Nova organitacija navodi da će se fokusirati na siguran i pažljiv razvoj veštačke inteligencije.
Frontier Model Forum
Nije tajna da razvoj veštačke inteligencije donosi mnogo bezbednosnih rizika. Dok regulatorni organi rade na razvoju propisa, za sada uglavnom same kompanije preuzimaju mere predostrožnosti. Najnovija regulacija dolazi sa zajedničkim stvaranjem Frontier Model Foruma od strane Anthropic-a, Google-a, Microsoft-a i Open AI-a. Ovaj savez koncentrisaće se na siguran i pažljiv razvoj veštačke inteligencije. Forum definiše “Frontier Model” kao bilo koji “model velikog obima mašinskog učenja” koji prevazilazi trenutne sposobnosti i ima širok spektar mogućnosti.
Forum planira osnivanje savetodavnog odbora, statuta i obezbeđivanje finansiranja. Organizacija je definisala četiri glavna stuba na kojima namerava da se fokusira. To su: dalje istraživanje bezbednosti veštačke inteligencije, utvrđivanje najboljih praksi, tesna saradnja sa donosiocima odluka, akademskom zajednicom, civilnim društvom i kompanijama. Takođe, navodi se podsticanje napora za izgradnju veštačke inteligencije “koja može pomoći u rešavanju najvećih izazova društva”.
Ćlanovi će navodno raditi na razvoji prva tri cilja u narednoj godini. Što se tiče članstva, u saopštenju se navode neophodne kvalifikacije za pridruživanje. Jedan od njih je razvoj Frontier Model i jasna posvećenost njihovoj bezbednosti. “Od suštinskog je značaja da kompanije koje se bave veštačkom inteligencijom, posebno one koje rade na najmoćnijim modelima, pronađu zajednički osnov i unaprede pažljive i prilagodljive prakse bezbednosti. Na taj način će snažni alati veštačke inteligencije imati najširu moguću korist za društvo”, izjavila je Ana Makanju, potpredsednica za globalne poslove u OpenAI. “Ovo je hitno. Ovaj forum je dobro pozicioniran da brzo deluje na unapređenju stanja bezbednosti veštačke inteligencije.”
Osnivanje Foruma usledilo je nakon nedavnog sporazuma o bezbednosti između Bele kuće i vodećih kompanija u oblasti veštačke inteligencije, uključujući i one koji su odgovorni za ovu novu inicijativu. Mere bezbednosti koje su preuzete uključuju testiranje neželjenog ponašanja od strane spoljnih stručnjaka i postavljanje prepoznatljivog obeležja na sadržaj koji je kreirala veštačka inteligencija.
Izvor: Engadget