BIZIT 11 - prvi dan

OpenAI zaustavio više tajnih operacija koje su zloupotrebljavale njegove AI modele

OpenAI tvrdi da su mreže iz Rusije, Kine, Irana i Izraela pokušale da manipulišu javnim mnjenjem. Određene grupe iz tih zemalja su koristile sadržaj generisan veštačkom inteligencijom za manipulaciju.

PCPress.rs Image

Manipulisanje javnim mnjenjem

OpenAI je naveo da je zaustavio pet tajnih operacija koje su koristile njegove AI modele za obmanjujuće aktivnosti na internetu. Ove operacije, koje je OpenAI prekinuo između 2023. i 2024. godine, potiču iz Rusije, Kine, Irana i Izraela.

Ove grupe su pokušavale da manipulišu javnim mnjenjem i utiču na političke ishode bez otkrivanja svojih pravih identiteta ili namera. “Do sada se ne čini da su ove kompanije značajno povećale angažovanje ili domet publike zahvaljujući našim uslugama.” Kompanija je dodala da je sarađivala sa ljudima iz tehnološke industrije, civilnog društva i vlada kako bi prekinula ove zlonamerne aktere.

Izveštaj OpenAI-a dolazi usred zabrinutosti zbog uticaja generativne veštačke inteligencije na više izbora širom sveta. Izboti su zakazani za ovu godinu, uključujući i SAD. OpenAI je otkrio kako su mreže ljudi angažovane u operacijama uticaja koristile generativnu AI za generisanje teksta i slika u mnogo većem obimu nego ranije. Zatim i za lažno angažovanje generisanjem lažnih komentara na objavama na društvenim mrežama.

Pročitajte i:  ChatGPT sada ima polje za pretraživanje interneta

“Tokom poslednjih godinu i po dana bilo je mnogo pitanja o tome šta bi moglo da se desi ako operacije uticaja koriste generativnu AI,” rekao je Ben Nimmo. On je glavni istražitelj u OpenAI-ovom timu za inteligenciju i istrage.

“Ovim izveštajem zaista želimo da popunimo neke praznine”

OpenAI je rekao da je ruska operacija pod nazivom “Doppelganger” koristila modele kompanije za generisanje naslova, pretvaranje novinskih članaka u Facebook objave i kreiranje komentara na više jezika. Na taj način su želeli da potkopaju podršku Ukrajini. Druga ruska grupa koristila je modele OpenAI-a za debagovanje koda za Telegram bot. Bot je objavljivao kratke političke komentare na engleskom i ruskom, ciljajući Ukrajinu, Moldaviju, SAD i baltičke države.

Kineska mreža “Spamouflage“, poznata po svojim naporima uticaja preko Facebook-a i Instagrama. Ova mreža je koristila modele OpenAI-a za istraživanje aktivnosti na društvenim mrežama i generisanje tekstualnog sadržaja na više jezika na raznim platformama. Iranska “Međunarodna unija virtuelnih medija” takođe je koristila AI za generisanje sadržaja na više jezika.

Pročitajte i:  Nevidljivi tekst koji razumeju samo chatbot-ovi

Objava OpenAI-a je slična onima koje druge tehnološke kompanije povremeno prave. Na primer, Meta je u objavila najnoviji izveštaj o koordinisanom neautentičnom ponašanju, detaljno opisujući kako je izraelska marketinška firma koristila lažne Facebook naloge za vođenje kampanje uticaja na svojoj platformi, ciljujući ljude u SAD-u i Kanadi.

Izvor: Engadget

Facebook komentari:
Računari i Galaksija
Tagovi: ,