Veštačka inteligencija još ne ume da pravi opasan malver
Google je u sredu objavio pet novih uzoraka malicioznih softvera koji su napravljeni pomoću generativne veštačke inteligencije. Rezultati svakog od njih bili su daleko ispod standarda profesionalnog razvoja malvera, što pokazuje da takozvano „AI kodiranje“ i dalje značajno zaostaje za tradicionalnim metodama i još nije realna pretnja, piše Ars Technica.

Jedan od uzoraka, nazvan PromptLock, bio je deo akademskog istraživanja koje je ispitivalo koliko su veliki jezički modeli sposobni da samostalno planiraju, prilagođavaju se i sprovode napad tipa ransomware. Istraživači su zaključili da softver ima „jasna ograničenja“ – nedostaju mu trajnost, bočno kretanje po mreži i napredne tehnike prikrivanja. Pre objave rada, kompanija ESET je uzorak označila kao „prvi AI ransomware“, ali bez stvarne pretnje.
Kao i ostali primeri – FruitShell, PromptFlux, PromptSteal i QuietVault – PromptLock je lako otkrivan čak i osnovnim antivirusnim rešenjima. Koristio je ranije poznate metode i nije imao operativni učinak, što znači da odbrambeni sistemi nisu morali da se prilagođavaju.
„Više od tri godine nakon početka AI manije, razvoj pretnji je i dalje bolno spor“, rekao je nezavisni istraživač Kevin Bomont za Ars Technicu. „Da ste ovo platili, tražili biste povraćaj novca – ne postoji nikakva kredibilna pretnja“.
Drugi stručnjaci se slažu: generativna AI zasad ne daje prednost autorima malvera. „AI ne pravi ništa strašnije od običnog malvera – samo ubrzava posao“, rekao je jedan od sagovornika. „Biće bolji, ali pitanje je kada“.

Iako kompanije poput Anthropic i ConnectWise tvrde da AI olakšava razvoj zlonamernog softvera, Google-ov izveštaj i slične analize ukazuju na to da su takvi primeri uglavnom eksperimentalni i da za sada ne zahtevaju nove mere zaštite.
Jedini zanimljiv nalaz jeste da je jedan akter uspeo da zaobiđe zaštitne mere Google-ovog modela Gemini, predstavljajući se kao „etički haker“ koji učestvuje u „capture-the-flag“ takmičenju. Google navodi da je od tada dodatno poboljšao svoje bezbednosne filtere.
Malver koji je do sada napravila veštačka inteligencija više dakle liči na laboratorijski eksperiment nego na realnu opasnost. Prave pretnje i dalje se oslanjaju na stare, proverene metode.


