ASUS Zenbook

AI može ubedljivo da oponaša stručnjake za sajber bezbednost i medicinske istraživače

Ako koristite web lokacije kao što su Facebook i Twitter, možda ste naišli na objave označene upozorenjima o pogrešnim informacijama. Do sada je većina dezinformacija – označenih i neoznačenih – bila usmerena na širu javnost. Sada zamislite mogućnost pogrešnih informacija – informacija koje su lažne ili obmanjujuće – u naučnim i tehničkim oblastim,a poput sajber bezbednosti, javne bezbednosti i medicine.

PCPress.rs Image

Studija pokazuje da lažni izveštaji koje generiše AI zavaravaju stručnjake

Sve je veća zabrinutost zbog širenja dezinformacija u ovim kritičnim oblastima, kao rezultat uobičajenih pristrasnosti i praksi u objavljivanju naučne literature, čak iu recenziranim istraživačkim radovima. Otkrili smo da je moguće da sistemi veštačke inteligencije generišu dovoljno uverljive lažne informacije u kritičnim oblastima poput medicine i odbrane, da zavaraju stručnjake. Opšte dezinformacije često imaju za cilj da se naruši ugled kompanija ili javnih ličnosti. Dezinformacije u stručnim zajednicama mogu imati zastrašujuće ishode, poput pružanja netačnih medicinskih saveta lekarima i pacijentima, što bi moglo ugroziti živote.

Da bi testirali ovu pretnju,naučnici su proučavali uticaje širenja dezinformacija u sajber-bezbednosti i medicinskim zajednicama. Korišćeni su modeli veštačke inteligencije nazvani transformeri  (transformers) za generisanje lažnih vesti o sajber-bezbednosti i medicinskih studija o COVID-19, a tako nastale  dezinformacije, prezentovane su stručnjacima za sajber bezbednost na testiranje. Utvrđeno je da su ove dezinformacije uspele da zavaraju stručnjake za sajber bezbednost. Veći deo tehnologije koja se koristi za identifikovanje i upravljanje dezinformacijama pokreće se veštačkom inteligencijom. AI omogućava računarskim naučnicima da brzo provere velike količine dezinformacija, s obzirom na to da ljudi i ne mogu previše da otkriju bez pomoći tehnologije.

Pročitajte i:  Google Photos - kompresovane fotografije ipak nisu „visokokvalitetne“

Iako AI pomaže ljudima da otkriju dezinformacije, ona se koristi i za stvaranje dezinformacija poslednjih godina. Transformeri su pomogli Google-u i drugim tehnološkim kompanijama da poboljšaju svoje browsere, na primer. Transformeri, poput BERT-a iz Google-a i GPT-a iz OpenAI-a, koriste obradu prirodnog jezika za razumevanje teksta i izradu prevoda, sažetaka i tumačenja. Oni su korišćeni u zadacima kao što su pripovedanje priča i odgovaranje na pitanja, pomerajući granice mašina koje prikazuju ljudske sposobnosti u generisanju teksta.

 

Transformeri se takođe mogu koristiti u zlonamerne svrhe. Društvene mreže poput Facebook-a i Twitter-a već su se suočile sa izazovima lažnih vesti koje generišu AI na različitim platformama.

Deseptikoni naše (virtuelne) realnosti

Istraživanje pokazuje da transformeri takođe predstavljaju pretnju zbog dezinformacija u medicini i sajber bezbednosti. Da bi ilustrovali koliko je ovo ozbiljno, istraživači su podesili model transformera GPT-2 na otvorenim mrežnim izvorima raspravljajući o ranjivostima sajber bezbednosti i informacijama o napadima. Zatim je model naučen rečenicama ili frazama stvarnog uzorka sajber pretnji i dato mu je da generiše ostatak opisa pretnje. Ovaj generisani opis predstavljen je lovcima na sajber pretnje, koji čitaju opise pretnji da bi identifikovali potencijalne napade i prilagodili odbranu svojih sistema.

Pročitajte i:  Microsoft-ovo poboljšanje pristupačnosti započinje AI unapređenjima za Office

PCPress.rs Image

Primeri dezinformacija o sajber bezbednosti koje je generisala AI uspeli su da ih prevare. Sličan model zasnovan na transformeru može generisati informacije u medicinskom domenu i potencijalno zavarati medicinske stručnjake. Tokom pandemije COVID-19, istraživački radovi koji još uvek nisu podvrgnuti rigoroznom pregledu, neprestano se postavljaju na mestima kao što je medrXiv. Oni se ne opisuju samo u štampi, već se koriste za donošenje odluka o javnom zdravstvu. Razmotrite sledeće, što nije stvarno, ali ga je generisao model nakon minimalnog finog podešavanja podrazumevanog GPT-2 na radovima povezanim sa COVID-19.

Model je uspeo da generiše kompletne rečenice i formira sažetak koji navodno opisuje neželjene efekte vakcinacije protiv COVID-19 i sprovedene eksperimente. Ovo je zabrinjavajuće kako za medicinske istraživače koji se dosledno oslanjaju na tačne informacije da bi donosili informisane odluke, tako i za pripadnike šire javnosti koji se često oslanjaju na javne vesti da bi saznali o kritičnim zdravstvenim informacijama. Ako se prihvate kao tačne, ova vrsta dezinformacija može ugroziti živote pogrešnim usmeravanjem napora naučnika koji sprovode biomedicinska istraživanja. Iako se primeri poput ovih iz studije mogu proveriti činjenicama, dezinformacije generisane transformerima koče takve industrije kao što su zdravstvena zaštita i sajber bezbednost u usvajanju veštačke inteligencije koja pomaže u preopterećenju informacijama.

Pročitajte i:  Veštačka inteligencija i ponašanje političara

Istraživači sajber bezbednosti kontinuirano proučavaju načine za otkrivanje dezinformacija u različitim domenima. Razumevanje načina automatskog generisanja dezinformacija pomaže u razumevanju načina njihovog prepoznavanja. Na primer, automatski generisane informacije često imaju suptilne gramatičke greške za koje se sistemi mogu obučiti da ih otkriju. Sistemi takođe mogu ukrštati informacije iz više izvora i identifikovati tvrdnje kojima nedostaje značajna podrška iz drugih izvora. Na kraju, svi bi trebalo da budu oprezniji u vezi sa informacijama kojima se može verovati i biti svesni da hakeri iskorišćavaju poverljivost ljudi, posebno ako informacije nisu iz uglednih izvora vesti ili objavljenog naučnog rada.

Izvor: Thenextweb

Facebook komentari:
SBB

Tagovi: , , , ,

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.