PC - Naših 30

ChatGPT lažno optužio čoveka za ubistvo

Jedan Norvežanin tvrdi da ChatGPT ugrožava njegovu bezbednost, budući da u okviru chatbot-a mogu da se nađu pogrešne informacije o tome da je počinio ubistvo. Tako je još jednom pokrenuto pitanje tačnosti i zaštite privatnosti korisnika.

PCPress.rs Image

ChatGPT, kao uostalom i svi drugi botovi, ponekada daje pogrešne informacije. U poslednjoj optužbi se tvrdi da je sve otišlo predaleko, budući da su lažne optužbe za ubistvo izazivale ozbiljne posledice. Radi se o tome da je jedan korisnik iz Norveške optužen da je ubio dvoje svoje dece i pokušao da ubije treće, a pritužba se tiče i GDPR pravila, jer tamo stoji da sve privatne informacije moraju da budu tačne (zvuči kao nešto što bi trebalo da važi i bez posebnih zakona, ali nije tako).

Ukoliko informacije o nekom korisniku nisu tačne, on ili ona ima pravo da traži da se to ispravi. To što ChatGPT ima disklejmer da neke informacije mogu da budu netačne, u nekim situacijama to jednostavno nije dovoljno. Problem nastaje kada pogrešne informacije toliko ugrožavaju privatnost da disklejmer postaje nevidljiv.

Pročitajte i:  Amazon i sopstveni model „rasuđivanja“ AI
PCPress.rs Image

Problem je nastao zbog odgovora na pitanje „Ko je Arve Hjalmar Holmen?”, jer je ChatGPT ponudio pričo o fabrikovanom slučaju ubistva. Već se neko vreme upozorava da AI alati daju pogrešne informacije u čak 60% slučajeva kada se radi o jednostavnom zadatku kao što je zahtev da se pronađe naslov nekog medijskog teksta, da se priloži link, ime autora. To je mnogo problema za tako jasan zahtev, pa se postavlja pitanje koliko se greši oko komplikovanijih stvari.

Izvor: Mashable

Facebook komentari:
Računari i Galaksija
Tagovi: , ,

Leave a Reply

Your email address will not be published. Required fields are marked *