BIZIT plus

Cyber security danas: prilika ili neprilika

Krajem marta veliku pažnju javnosti privuklo je otvoreno pismo koje je napisao profesor MIT-a Max Erik Tegmark, tvrdeći da smo svi u opasnosti od nekontrolisanog razvoja veštačke inteligencije.

PCPress.rs Image

Pismo profesora Tegmark-a prostire se na nekoliko strana i može se svesti na sledeće: ukoliko se nastavi ovakav model razvoja veštačke inteligencije, dakle model vođen prilagođen interesima kompanija a ne društva u celini, može nam se dogoditi da nas veštačka inteligencija nadvlada i istisne iz tokova evolucije, slično kao što je Homo sapiens istisnuo neandertalce.

Navikli smo da diskusije o računarskoj bezbednosti obiluju „argumentima“ koji u sebi sadrže elemente straha, neizvesnosti i sumnje (engleska skraćenica FUD, Fear, Uncertainty and Doubt), ali uglavnom se „mračna komponenta“ diskusije odnosila na visok rizik od (značajne) štete po računarske sisteme, podatke i reputaciju. Ovog puta lestvica je podignuta na najviši mogući nivo – upozoreni smo da je ugrožen čovek kao vrsta! Otvoreno pismo je do sada potpisalo više od 27.000 visokoobrazovanih stručnjaka, među kojima su brojni istraživači veštačke inteligencije, kao i niz „zvučnih“ imena iz IT zajednice, kao što je Steve Wozniak.

PCPress.rs Image

Ubrzana evolucija?

Počeci cyber bezbednosti kao tehničke discipline neodvojivi su od razvoja ostalih računarskih nauka. Otkako su prvi IT sistemi postali „opremljeni“ mogućnošću razmene podataka, počeli su i simptomi prvih „prehlada“. Pioniri ere kućnih računara, pre svega prvih desk­top PC-ja, dobro se sećaju računarskih virusa koji su stizali putem zaraženih disketa i zadavali ozbiljne glavobolje tadašnjoj (za današnje pojmove) skromnoj IT zajednici. Napredak kome smo svedočili širenjem Interneta u okviru univerzitetskih zajednica, a koji se za svega par godina „uvukao“ u sve privatne i poslovne aspekte društva, doneo je nam je i mrežne crve, trojanske konje, makro viruse u Word i Excel fajlovima, kao i prve „zaražene“ Web sajtove.

Najvažnija prednost koju smo stekli u odnosu na ostali živi svet, sposobnost sticanja i primene složenih znanja i veština koju nazivamo inteligencijom, je „napadnuta“! I to ne direktno od drugog čoveka, već od njegovog pažljivo razvijanog proizvoda – algoritama veštačke inteligencije

Period u kome su meta bili pretežno računarski sistemi zamenila je era u kojoj su cilj zlonamernih aktera postali podaci i informacije. Iz perspektive 2023. godine, prvobitne krađe platnih kartica izgledaju kao sitne krađe slatkiša u velikim trgovinskim lancima u odnosu na godine koje su sledile i donele krađu identiteta, ličnih podataka, masovne odlive poverljivih poslovnih informacija pa čak i vojnih tajni. Julian Assange i Edward Snowden mesecima su bili planetarna tema broj jedan i u stručnoj zajednici i u medijima uopšte, ali smo ih zaboravili brže nego viruse poput „Mikelanđela“ ili mrežnih crva kao što je WannaCry.

A onda nam se „desio“ COVID-19, online rad od kuće i, za mnoge, trajna promena načina poslovnog angažovanja. Pandemiju ćemo pamtiti i kao period u kome smo bili preplavljeni neistinama, poluinformacijama, dezinformacijama pa i potpunim besmislicama, u kojima je istinu bilo gotovo nemoguće pronaći. Bezbednosni perimetar korporacija postao je „difuzan“, jasna granica između zaštićenog IT okruženja koje se čuva i Interneta u praksi je nestala. Obuke iz informacione bezbednosti polako su počele da iz svojih obaveznih segmenata potiskuju module, poput „Recimo ne zaraženom USB drajvu!“, Click before you think! sa „Ne verujte (skoro pa ničemu) što vidite i čujete!“. Uznemireni i uplašeni, ljudi su postali podložniji socijalnom inženjeringu koji je, uz napredak sistema za online prevođenje, postajao sve uspešniji u pronalaženju lakovernih.

„Hladne obloge“ koje većina korporacija trenutno primenjuje, predstavljaju prostu zabranu pristupa sajtovima koji nude AI servise, ali takav sistem kontrole je privremen

Kao da sve to nije bilo dovoljno, poslednji element IT bezbednosti, čovek, je bio fizički ugrožen i naglo izmešten iz namenskog radnog okruženja u svoj privatni prostor. Jedva primetno, najvažnija prednost (?) koju smo stekli u odnosu na ostali živi svet, sposobnost sticanja i primene složenih znanja i veština koju nazivamo inteligencijom, je „napadnuta“! I to ne direktno od drugog čoveka, već od njegovog pažljivo razvijanog proizvoda – algoritama veštačke inteligencije.

Pročitajte i:  42 procenta poslovnih aplikacija pati od dugotrajnih bezbednosnih propusta

ChatGPT (r)evolucija

Napredak i softverski razvoj u modelima neuronskih mreža poznatijih kao Generative Pre-trained Transformers, skraćeno GPT, doneo nam je softverski servis kojim je većina planete fascinirana poslednjih meseci – ChatGPT. Verujem da nema osobe koja nije iznenađena mogućnostima ove platforme, najpopularnije, ali ipak samo jedne u nizu mnogih o kojima se neprestano priča. Naša čula i um su oduševljeni ali i zbunjeni. IT esnaf je „iz naftalina izvadio“ Tjuringov test, jednu od prvih metoda za određivanje da li je računar sposoban da razmišlja kao ljudsko biće, pokušavajući da utvrde koji od sistema nas je „pobedio“. Teoretičari zavera su dodatno preplavili već zagađen medijski prostor. Mnogi su se uplašili za budućnost svojih profesija i setili se „trošne dedine kuće“ pored koje može da se gaji povrće. Školarci manje „spavaju nad knjigom“ i već su počeli da koriste neke od sistema za rešavanje domaćih zadataka; problem, ipak, i dalje predstavlja kada treba objasniti nastavnicima neke od međukoraka, a „rešenje“ se traži bežanjem na online nastavu.

PCPress.rs Image

Manje spavaju i kriminalci, barem onaj deo koji je i do sada koristio tehnologiju, pokušavajući da osmisle nove načine kako da zaobiđu logičke barijere kod ljudi i navedu ih da urade nešto što im nije u interesu. Modeli su različiti, od pojave (gotovo) savršenih neželjenih spam i phishing poruka, tekstova za koje je gotovo nemoguće odrediti da li ih je pisao čovek ili ih je sastavio AI softver, do računarski generisanih slika ljudi, bića ili predela koji ne postoje, a koje su u stanju da obmanu i ozbiljna imena iz sveta fotografije. Stara šala: „Je l’ više veruješ meni ili svojim očima?“ u današnje vreme zvuči kao ozbiljno pitanje.

Bezbednost je uvek bila igra mačke i miša, ali nikada pre miš nije imao ovoliku prednost

Najmanje spavaju, ili je barem to subjektivni utisak autora ovog teksta, oni kojima je posao da zaštite sva tri „sveta“ tog neraskidivog ekosistema bezbednosti – IT tehnologiju, podatke i čoveka koji ih koristi. Dovoljno je složeno podesiti tehničke mere zaštite i uskladiti se s rastućom regulativom u oblasti zaštite podataka, neophodno znanje za uspeh zahteva i godine iskustva. Bezbednost je uvek bila igra mačke i miša, ali nikada pre miš nije imao ovoliku prednost. Zato i ne čudi vapaj poznatog profesora, apel da se mora stati, bar za trenutak, i promisliti kuda to idemo u odnosu na to gde želimo da stignemo.

Pročitajte i:  Apple uvodi oznaku Verifikovana bezbednost

Regulativa

Prvi korak ka tome da „vratimo duha u bocu“ jeste uspostavljanje jasnog dogovora između svih nas, koji će biti artikulisan u formi zakonske regulative sa ciljem da barem načelno spreči mogućnost da se napredak u razvoju algoritama veštačke inteligencije koristi protiv opštih načela čovečanstva. U našem okruženju, prvi značajan korak načinila je Evropska unija donošenjem predloga Zakona o veštačkoj inteligenciji (Artificial Intelligence Act – AIA), o kome smo pisali avgusta 2022, a slična inicijativa pokrenuta je i u SAD početkom ove godine.

Važno je istaći i da je među prvim zemljama koje su prepoznale značaj veštačke inteligencije i Srbija, koja je, prateći svetsku praksu, februara ove godine usvojila dokument naziva „Etičke smernice za razvoj, primenu i upotrebu pouzdane i odgovorne veštačke inteligencije“. Osnovni postulat svih zakonskih formi, ma gde bile usvojene, veoma je jasan – sprečavanje sistema veštačke inteligencije koji uzrokuju ili bi mogli da nanesu fizičku ili psihološku štetu čoveku. U toku je značajan napor da se novi zakoni usklade s već postojećom regulativom iz oblasti zaštite privatnosti, a neki od aktuelnih predloga o kojima se vodi javna stručna diskusija treba da urede način obaveznog označavanja slika generisanih veštačkom inteligencijom.

Administrativne mere trebalo bi da odvrate pojedince i grupe od zloupotrebe sistema veštačke inteligencije, ali kao za i svaki propis, jedino dosledna primena može (pomalo) dati praktične rezultate. S druge strane, veliki put je pred svima kada su u pitanju tehničke mere, za koje se u ovom trenutku može konstatovati da praktično ne postoje. „Hladne obloge“ koje većina korporacija trenutno primenjuje, predstavljaju prostu zabranu pristupa sajtovima koji nude AI servise, ali takav sistem kontrole je privremen. Zabrinjava činjenica da ćemo se protiv zlonamernog korišćenja AI tehnologije verovatno boriti nekim sličnim sistemima koji će biti pod strogom kontrolom. Opet, najvažnija od „utešnih“ činjenica je i ta da je tehnologija veštačke inteligencije jednako nepoznata i akterima na „tamnoj strani“, pa ćemo, nažalost, učiti jedni od drugih u hodu.

Pročitajte i:  Manje od polovine IT lidera je sigurno u svoje IoT security procedure

Sinergija veštačke inteligencije i robotike

Razvoj robotike, 3D štampe i autonomnih sistema koji bez čoveka za upravljačem mogu da lete, plove ili voze, uskoro će se spojiti sa svetom veštačke inteligencije. Teško je proceniti kada će se to desiti u komercijalnom ekosistemu i kako će ta integracija izgledati, a ako je suditi po trendovima, brzo ćemo početi da srećemo pametne robote. Rojevi malih letećih dronova koji nose pakete i autonomno sleću bez intervencije centralnog sistema, komunicirajući međusobno, prateći jednostavna pravila poput onih inspirisanih prirodnim rojevima, na korak su da iz SF romana postanu svakodnevica, poput mobilnih telefona pre tridesetak godina.

PCPress.rs Image

Još manji aparati, bazirani na nanotehnologiji, možda će pretraživati naše telo i rešavati medicinske probleme za koje danas morate da se prijavite na listu čekanja. Grupa terenskih dronova biće u stanju da, koristeći „inteligenciju“ povorke mrava, ruševine koje su posledica neke prirodne katastrofe, autonomno obiđu u potrazi za preživelima. Nažalost, nema sumnje da će i ponašanje rojeva koji (pametno) napadaju pronaći svoju primenu u vojnim sistemima.

Pomalo paradoksalno, krug bezbednosti ovde se (možda?) zatvara. Fizička bezbednost, koja odavno ne predstavlja fokus informacije bezbednosti, možda će postati primarna u decenijama koje dolaze. Trenutno zvuči smešno obuka na temu „Kako se odbraniti od pogrešno podešenog roja mikrodronova“, uz glavni savet: „Ne gledajte ih u oči (kameru) i nosite zaštitni plašt!“, ali smejali smo se i obukama koje su nas učile da ne treba uplaćivati novac „nigerijskom princu“ da bismo mu pomogli da „oslobodi zarobljene milione dolara“.

Bezbednost je jedna od osnovnih ljudskih potreba, pa je pitanje vremena kada ćemo „ukrotiti“ AI sisteme tako da nam budu isključivo na korist, a ne na štetu. Do tog zamišljenog trenutka, iskoristite priliku da uskočite u voz koji je već krenuo!

Ma koliko budućnost izgledala svetlo ili tamno, iskustvo nas uči da ljudska vrsta ipak ima ugrađene razne mehanizme opstanka, što pruža nadu da ćemo i ovaj tehnološki stepenik iskoristiti na bolji način. Ipak, bezbednost je jedna od osnovnih ljudskih potreba, pa je pitanje vremena kada ćemo „ukrotiti“ AI sisteme tako da nam budu isključivo na korist, a ne na štetu. Do tog zamišljenog trenutka, iskoristite priliku da uskočite u voz koji je već krenuo!

Autor: Kristijan Lazić

Facebook komentari: