Prva priča o ransomware-u napravljenom uz pomoć AI-ja koja je „zapalila” bezbednosnu industriju
Ono što je počelo kao ideja za naučni rad, skoro je izazvalo paniku u svetu sajber bezbednosti.

Istraživački projekat sa NYU greškom shvaćen kao prava sajber pretnja
Tim inženjera sa New York University (NYU) razvio je dokaz-koncepta (PoC) za prvi ransomware zasnovan na veštačkoj inteligenciji – što je brzo protumačeno kao stvarni napad.
„Ransomware 3.0” – istraživački eksperiment
Doktorand Md Raz i kolege iz NYU-a želeli su da ispitaju šta se dešava kada se ukrste najnoviji oblici ransomware-a i AI modeli velikih razmera. Cilj je bio da pokažu koliko je realna pretnja AI napada koji može da pokrije ceo životni ciklus ransomware kampanje.
Rezultat je bio prototip nazvan Ransomware 3.0, koji je mogao da:
- generiše Lua skripte prilagođene svakom računaru,
- mapira IT sisteme i otkrije vredne fajlove,
- prilagodi se različitim okruženjima kroz polimorfni kod (svaki put drugačiji),
- napiše personalizovanu ucenu koristeći podatke o korisniku.
Za testiranje su korišćeni OpenAI-jevi modeli gpt-oss-20b i gpt-oss-120b, pri čemu se lakši model pokazao „poslušnijim”.
Kada je eksperiment „pobegao” u javnost
Istraživači su svoj prototip postavili na VirusTotal, servis za proveru malvera. Ubrzo su se pojavile objave bezbednosnih kompanija o novom „pravom” AI ransomware-u nazvanom PromptLock. Analitičari iz ESET-a identifikovali su binarni fajl, verujući da je reč o aktivnom malveru u divljini. Čak su i CISO direktori kontaktirali autore tražeći odbrambene savete – ne znajući da je sve to samo akademski rad.
„To je bukvalno isti kod koji sam napisao”, rekao je Raz. Tek tada je tim shvatio da je njihov projekat dospeo u medije kao ozbiljna pretnja.
Da li je pretnja realna?
Raz ističe da njihov binarni fajl ne funkcioniše van laboratorijskog okruženja i da ne može da enkriptuje podatke korisnika u stvarnom svetu bez značajnih modifikacija. Ipak, dodaje da je ceo napad tehnički nije previše komplikovan za repliciranje i da je vrlo verovatno da već postoje kriminalne grupe koje rade na sličnim stvarima.
Kako je AI pomagao
Važno je naglasiti da istraživači nisu koristili jailbreak niti skrivene upite. AI je samo ispunjavao pojedinačne zadatke:
- napiši kod za skeniranje fajlova,
- generiši ransom poruku.
Ali, kada se ti delovi spoje, dobija se kompletan maliciozni napad – što ga čini posebno teškim za detekciju i odbranu.
Širi kontekst: AI u rukama napadača
U isto vreme dok je PromptLock izazivao pažnju, kompanija Anthropic upozorila je da je jedan kriminalni tim koristio Claude Code u realnoj iznudi podataka.
Dakle, već sada postoje dva pokazatelja:
- Istraživački PoC koji je lako mogao biti shvaćen kao realni napad.
- Stvarni sajber kriminalci koji već koriste AI alate u iznudama.
Za odbranu, to znači da bi industrija trebalo odmah da počne sa pripremama za eru AI kreirane sajber pretnje.
Izvor: Theregister


