Nevidljivi tekst koji razumeju samo chatbot-ovi
Šta ako već postoji način da se maliciozna uputstva otpreme u Claude, Copilot ili bilo kojeg drugog chatbot-a, a da to niko ne primeti? Ispostavilo se da ovo pitanje nije bez osnova, budući da postoje stvari koje botovi mogu da pročitaju, sok ih ljudski korisnici uopšte ne vide.
Radi se o nevidljivim slovima, karakterima koji su nastali usled greške u Unicode standardu. Potencijalni napadači su tako dobili kanal preko kojeg bi mogli da izvode napade, a da niko ne primeti. AI botovi bi se u tom slučaju pretvorili u alate koji pomažu u krađi lozinki i drugih osetljivih podataka.
Zahvaljujući tome što nevidljivi delovi teksta mogu da se kombinuju sa običnim tekstom korisnici slučajno kopiraju uputstva napadača, pa se napadi tako lako i brzo šire. Činjenica da GPT 4.0 i Claude Opus mogu da razumeju te nevidljive tagove uznemirila je eksperte, budući da je bezbednost u okviru AI chatbot univerzuma postala kompleksnija.
Napad funkcioniše tako što se nevidljivim tagovima chatbot-u zadaje komanda da podeli određene informacije, a tokom testiranja je utvrđeno da Copilot tražene informacije pretvara u isti nevidljivi kod i šalje ih na URL koji se nalazi u okviru zadate komande. Budući da su osetljive informacije nevidljive tako napravljen link izgleda bezazleno, pa korisnici ne vide razlog da ne kliknu na ponuđenu adresu.
Za sada su najviše pogođeni Claude web aplikacija i Claude API iz Anthropic, a nevidljivi test je slabost i za OpenAI API Access i Azure OpenAI API. ChatGPT za web sa druge strane nije osetljiv na maliciozne tagove, budući da su u OpenAI napravili neophodne izmene.
Fenomen zahvaljujući kojem AI veliki jezički modeli mogu da čitaju nevidljive stvari utiče na bezbednost, a rešenja se očekuju uskoro.