Tehnološki lideri i stručnjaci za AI zahtevaju šestomesečnu pauzu u eksperimentima

Otvoreno pismo upozorava na rizike za ljude ako se ne posveti veća pažnja sigurnosti.

PCPress.rs Image

Velika brzina napredovanja veštačke inteligencije

U otvorenom pismu koje su potpisali tehnološki lideri i istaknuti istraživači za AI pozivaju laboratorije i kompanije AI da „odmah pauziraju“ svoj rad. Jedni od inicijatora su Steve Wozniak i Elon Musk. Oni se slažu da rizici zahtevaju minimalno šestomesečnu pauzu u proizvodnji tehnologije. Pauza je potrebna kako bi se ljudi prilagodili i uživali u postojećim sistemima veštačke inteligencije. Zatim treba biti siguran da je tehnologija od koristi svima. U pismu se dodaje da su pažnja i predumišljaj neophodni da bi se osigurala bezbednost sistema veštačke inteligencije. Međutim, izgleda da se te stvrai ignorišu.

Jedan od najupečatljivijih modela je trenutno GPT-4, model koji je razvio OpenAI. Ovaj model veštačke inteligencije može da odgovori tekstom na pisane ili vizuelne zahteve. Kompanije se utrkuju u izgradnji složenih sistema za ćaskanje koji koriste tu tehnologiju. Microsoft je nedavno potvrdio da je njegov renovirani Bing pretraživač pokreće pomoću GPT-4 modela više od sedam nedelja. Takođe, Google je nedavno predstavio Bard, sopstveni generativni AI sistem koji pokreće LaMDA. Nemir oko AI već dugo kruži, ali očigledna trka da se prvo primeni najnaprednija AI tehnologija izazvala je veće zabrinutosti.

Pročitajte i:  Student uhapšen zato što je koristio AI za varanje na ispitima

„Nažalost, ovaj nivo planiranja i upravljanja se ne dešava, iako smo poslednjih meseci videli da su laboratorije veštačke inteligencije zaključane u trci van kontrole da razviju i primene sve moćnije digitalne umove koje niko čak ni njihovi kreatori ne razumeju. Predvideti ili pouzdano kontrolisati“, navodi se u pismu.

Rizici koje donosi AI

Zabrinjavajuće pismo objavio je Institut za budućnost života (FLI). Ta organizacija je posvećena smanjenju rizika i zloupotrebi nove tehnologije. Musk je ranije donirao 10 miliona dolara toj organizaciji za korišćenje u studijama o bezbednosti veštačke inteligencije. Pored njega i Wozniaka, među potpisnicima je i niz globalnih lidera veštačke inteligencije. Neki od njih su predsednik Centra za veštačku inteligenciju i digitalnu politiku Marc Rotenberg, fizičar MIT-a i predsednik Instituta za budućnost života Max Tegmark i istoričar Yuval Noah Harari. Harari je takođe zajedno sa osnivačima Centra za humanu tehnologiju i kolegama potpisnicima, Tristan Harris i Aza Raskin, napisao članak u kojem upozorava na rizike od veštačke inteligencije.

Ovo pismo se čini kao sledeći korak posle ankete iz 2022. godine koji je činilo preko 700 istraživača mašinskog učenja. Tada je skoro polovina učesnika izjavila da postoji 10 procenata šanse za „izuzetno loš ishod“ koji donosi AI, uključujući izumiranje ljudi. Na pitanje o bezbednosti u istraživanju veštačke inteligencije, 68 odsto istraživača navelo je da bi trebalo učiniti više odnosno mnogo više u tom pogledu.

Pročitajte i:  Istraživanja pokazuju da je oko AI industrije veliki hajp, ali ne i njeno korišćenje

Svako ko deli zabrinutost u vezi sa brzinom i bezbednošću napredovanja veštačke inteligencije može da doda svoje ime na spisak. Međutim, nova imena nisu nužno verifikovana i proverena, tako da su svi dodaci nakon prve objave potencijalno lažni.

Izvor: Engadget

Facebook komentari: