Pokloni za geek-a | PC Press

OpenAI otkrio podatke o korisnicima ChatGPT-a sa znakovima psihoze i suicidalnih misli

OpenAI je objavio nove procene o broju korisnika ChatGPT-a koji pokazuju moguće znake mentalnih kriza – uključujući maniju, psihozu ili suicidalne misli.

PCPress.rs Image


Samo 0,07% korisnika pokazuje znake mentalne krize, ali to znači stotine hiljada ljudi širom sveta

Prema podacima kompanije, oko 0,07% aktivnih korisnika nedeljno pokazuje takve simptome. Iako OpenAI naglašava da su ovakvi slučajevi „izuzetno retki“, broj je zabrinjavajući s obzirom na to da ChatGPT ima oko 800 miliona aktivnih korisnika svake nedelje, prema rečima izvršnog direktora Sama Altmana.

Mreža stručnjaka i protokoli za reagovanje

Kako raste pritisak javnosti, OpenAI je saopštio da je formirao međunarodnu mrežu stručnjaka koji savetuju kompaniju o načinima prepoznavanja i odgovaranja na razgovore koji ukazuju na mentalno uznemirenje.

Flaner

U tu mrežu uključeno je više od 170 psihijatara, psihologa i lekara opšte prakse iz 60 zemalja. Oni su, prema OpenAI-ju, razvili set odgovora u ChatGPT-u kojima se korisnici ohrabruju da potraže stručnu pomoć u stvarnom životu. „Čak i kada 0,07% deluje kao mali procenat, u populaciji od stotina miliona korisnika to znači veoma mnogo ljudi“, upozorio je dr Džejson Nagata, profesor sa Univerziteta Kalifornija u San Francisku koji proučava uticaj tehnologije na mlade. On je dodao da veštačka inteligencija može proširiti dostupnost podrške za mentalno zdravlje, ali da je važno „biti svestan njenih ograničenja“.

Pročitajte i:  Najnoviji Google AI koristi veb pregledač

Ozbiljni razgovori i prepoznati rizici

Kompanija procenjuje i da 0,15% korisnika vodi razgovore sa „jasnim pokazateljima planiranja ili namere samoubistva“. Nove verzije ChatGPT-a, kako tvrdi OpenAI, osmišljene su tako da bezbedno i empatično reaguju na moguće znake psihoze, manije ili samopovređivanja. Sistem sada može da prepozna i posredne signale rizika i da osigura da se rizični razgovori preusmere ka „bezbednijim modelima“. OpenAI je za BBC izjavio da je svestan da čak i „mali procenat korisnika predstavlja veliki broj stvarnih ljudi“ i da kompanija ozbiljno pristupa ovim izazovima.

Tužbe i kritike zbog interakcija sa korisnicima

Objavljivanje podataka dolazi u trenutku kada se OpenAI suočava sa pravnim istragama i tužbama zbog načina na koji ChatGPT komunicira sa korisnicima. Jedan od najpoznatijih slučajeva odnosi se na par iz Kalifornije koji je tužio kompaniju, tvrdeći da je ChatGPT doprineo smrti njihovog sina tinejdžera u aprilu. Prema tužbi, 16-godišnji Adam Rejn izvršio je samoubistvo nakon razgovora sa chatbotom, što je prva tužba te vrste protiv OpenAI-ja zbog „nepravedne smrti“.

Pročitajte i:  OpenAI ima pet godina da pretvori 13 milijardi dolara u bilion

U drugom slučaju, osumnjičeni za ubistvo i samoubistvo u Griniču (Konektikat) navodno je objavio delove razgovora sa ChatGPT-em, koji su, prema izveštajima, doprineli njegovim zabludama.

„Iluzija stvarnosti“ i rizik za nestabilne korisnike

Profesor Robin Feldman, direktorka Instituta za pravo i inovacije veštačke inteligencije pri Univerzitetu Kalifornija, upozorila je da AI sistemi poput ChatGPT-a mogu stvoriti „moćnu iluziju stvarnosti“, što kod osoba sa psihičkim poteškoćama može pojačati zablude.

„OpenAI zaslužuje priznanje za transparentnost i napore da unapredi bezbednost,“ rekla je Feldman. „Ali osoba koja je mentalno ugrožena često ne može da prepozna ili posluša upozorenja na ekranu.“

Iako OpenAI ističe da su slučajevi retki, stručnjaci smatraju da će kompanija morati da uloži dodatne napore u sprečavanje emocionalne zavisnosti i pogoršanja mentalnog zdravlja korisnika.

U eri kada se veštačka inteligencija sve više koristi za razgovor, savetovanje i podršku, granica između digitalne pomoći i stvarne psihološke podrške postaje sve tanja — a njeno pogrešno razumevanje može imati ozbiljne posledice.

Izvor: Bbc

Facebook komentari:
Tagovi: ,

Leave a Reply

Your email address will not be published. Required fields are marked *