OpenAI otkrio podatke o korisnicima ChatGPT-a sa znakovima psihoze i suicidalnih misli
OpenAI je objavio nove procene o broju korisnika ChatGPT-a koji pokazuju moguće znake mentalnih kriza – uključujući maniju, psihozu ili suicidalne misli.

Samo 0,07% korisnika pokazuje znake mentalne krize, ali to znači stotine hiljada ljudi širom sveta
Prema podacima kompanije, oko 0,07% aktivnih korisnika nedeljno pokazuje takve simptome. Iako OpenAI naglašava da su ovakvi slučajevi „izuzetno retki“, broj je zabrinjavajući s obzirom na to da ChatGPT ima oko 800 miliona aktivnih korisnika svake nedelje, prema rečima izvršnog direktora Sama Altmana.
Mreža stručnjaka i protokoli za reagovanje
Kako raste pritisak javnosti, OpenAI je saopštio da je formirao međunarodnu mrežu stručnjaka koji savetuju kompaniju o načinima prepoznavanja i odgovaranja na razgovore koji ukazuju na mentalno uznemirenje.
U tu mrežu uključeno je više od 170 psihijatara, psihologa i lekara opšte prakse iz 60 zemalja. Oni su, prema OpenAI-ju, razvili set odgovora u ChatGPT-u kojima se korisnici ohrabruju da potraže stručnu pomoć u stvarnom životu. „Čak i kada 0,07% deluje kao mali procenat, u populaciji od stotina miliona korisnika to znači veoma mnogo ljudi“, upozorio je dr Džejson Nagata, profesor sa Univerziteta Kalifornija u San Francisku koji proučava uticaj tehnologije na mlade. On je dodao da veštačka inteligencija može proširiti dostupnost podrške za mentalno zdravlje, ali da je važno „biti svestan njenih ograničenja“.
Ozbiljni razgovori i prepoznati rizici
Kompanija procenjuje i da 0,15% korisnika vodi razgovore sa „jasnim pokazateljima planiranja ili namere samoubistva“. Nove verzije ChatGPT-a, kako tvrdi OpenAI, osmišljene su tako da bezbedno i empatično reaguju na moguće znake psihoze, manije ili samopovređivanja. Sistem sada može da prepozna i posredne signale rizika i da osigura da se rizični razgovori preusmere ka „bezbednijim modelima“. OpenAI je za BBC izjavio da je svestan da čak i „mali procenat korisnika predstavlja veliki broj stvarnih ljudi“ i da kompanija ozbiljno pristupa ovim izazovima.
Tužbe i kritike zbog interakcija sa korisnicima
Objavljivanje podataka dolazi u trenutku kada se OpenAI suočava sa pravnim istragama i tužbama zbog načina na koji ChatGPT komunicira sa korisnicima. Jedan od najpoznatijih slučajeva odnosi se na par iz Kalifornije koji je tužio kompaniju, tvrdeći da je ChatGPT doprineo smrti njihovog sina tinejdžera u aprilu. Prema tužbi, 16-godišnji Adam Rejn izvršio je samoubistvo nakon razgovora sa chatbotom, što je prva tužba te vrste protiv OpenAI-ja zbog „nepravedne smrti“.
U drugom slučaju, osumnjičeni za ubistvo i samoubistvo u Griniču (Konektikat) navodno je objavio delove razgovora sa ChatGPT-em, koji su, prema izveštajima, doprineli njegovim zabludama.
„Iluzija stvarnosti“ i rizik za nestabilne korisnike
Profesor Robin Feldman, direktorka Instituta za pravo i inovacije veštačke inteligencije pri Univerzitetu Kalifornija, upozorila je da AI sistemi poput ChatGPT-a mogu stvoriti „moćnu iluziju stvarnosti“, što kod osoba sa psihičkim poteškoćama može pojačati zablude.
„OpenAI zaslužuje priznanje za transparentnost i napore da unapredi bezbednost,“ rekla je Feldman. „Ali osoba koja je mentalno ugrožena često ne može da prepozna ili posluša upozorenja na ekranu.“
Iako OpenAI ističe da su slučajevi retki, stručnjaci smatraju da će kompanija morati da uloži dodatne napore u sprečavanje emocionalne zavisnosti i pogoršanja mentalnog zdravlja korisnika.
U eri kada se veštačka inteligencija sve više koristi za razgovor, savetovanje i podršku, granica između digitalne pomoći i stvarne psihološke podrške postaje sve tanja — a njeno pogrešno razumevanje može imati ozbiljne posledice.
Izvor: Bbc


