Hakeri ubacuju lažna sećanja u ChatGPT
Bezbednosni eksperti su nedavno otkrili ChatGPT ranjivost o kojoj se nije puno govorilo – hakerima omogućava da u bota implementiraju lažna sećanja i pogrešne informacije, i tako dođu do korisničkih podataka. U pitanju je dakle bezbednosni propust, a iz kompanije OpenAI su početkom septembra objavili delimičnu ispravku.

Ranjivost eksploatiše opciju dugoročnog pamćenja koju je OpenAI krenuo da testira u februaru. U septembru je ChatGPT počeo da se oslanja na pamćenje prethodnih razgovora, a radi se o tome da bot čuva detalje iz prethodnih upita i taj kontekst koristi u narednim komunikacijama. Tako ChatGPT zna neke osnovne podatke – starost, pol, uverenja i druge stvari koje je korisnik odlučio da podeli.
Vrlo brzo je otkriveno da hakeri mogu da kreiraju i u bota ubace lažne delove razgovora, a u eksperimentu koji je sproveo sigurnosni ekspert Johann Rehberger je utvrđeno da ChatGPT može da poveruje da neki korisnik ima 102 godine, živi u Matriksu i veruje da je Zemlja ravna ploča. Jezički model uzima te informacije i uključuje ih u buduće razgovore, a do bota mogu da dođu na različite načine – preko mejlova, Google Drive-a ili Microsoft OneDrive-a, surfovanje internetom.
Rehberger je informacije o propustu poslao kompaniji OpenAI još u maju, a istakao je da se odnosi samo na mobilnu ChatGPT verziju – web varijanta je bezbedna zahvaljujući API-ju koji je izašao 2023. godine.
Izvpr: Ars Technica