ChatGPT lažno optužio čoveka za ubistvo
Jedan Norvežanin tvrdi da ChatGPT ugrožava njegovu bezbednost, budući da u okviru chatbot-a mogu da se nađu pogrešne informacije o tome da je počinio ubistvo. Tako je još jednom pokrenuto pitanje tačnosti i zaštite privatnosti korisnika.

ChatGPT, kao uostalom i svi drugi botovi, ponekada daje pogrešne informacije. U poslednjoj optužbi se tvrdi da je sve otišlo predaleko, budući da su lažne optužbe za ubistvo izazivale ozbiljne posledice. Radi se o tome da je jedan korisnik iz Norveške optužen da je ubio dvoje svoje dece i pokušao da ubije treće, a pritužba se tiče i GDPR pravila, jer tamo stoji da sve privatne informacije moraju da budu tačne (zvuči kao nešto što bi trebalo da važi i bez posebnih zakona, ali nije tako).
Ukoliko informacije o nekom korisniku nisu tačne, on ili ona ima pravo da traži da se to ispravi. To što ChatGPT ima disklejmer da neke informacije mogu da budu netačne, u nekim situacijama to jednostavno nije dovoljno. Problem nastaje kada pogrešne informacije toliko ugrožavaju privatnost da disklejmer postaje nevidljiv.

Problem je nastao zbog odgovora na pitanje „Ko je Arve Hjalmar Holmen?”, jer je ChatGPT ponudio pričo o fabrikovanom slučaju ubistva. Već se neko vreme upozorava da AI alati daju pogrešne informacije u čak 60% slučajeva kada se radi o jednostavnom zadatku kao što je zahtev da se pronađe naslov nekog medijskog teksta, da se priloži link, ime autora. To je mnogo problema za tako jasan zahtev, pa se postavlja pitanje koliko se greši oko komplikovanijih stvari.
Izvor: Mashable