Pokloni za geek-a | PC Press

Šta se desi kad doktori ne primete da AI greši?

Nedavno je medicinski AI model kompanije Google napravio grešku koja je obeležena kao „slovna greška“. To je ipak privuklo pažnju eksperata koji kažu da je to odličan primer koliko ovakvi alati mogu da budu opasni.

PCPress.rs Image

U pitanju je najnoviji Med-Gemini model, a grešku je napravio kada je na snimku mozga označio stvar koja ne postoji. Radi se o tome da je iskoristio termin „basilar ganglia”, koji dobro zvuči, ali je problem u tome što nije stvaran. „Basal ganglia“ sa druge strane postoji, pa ovo stvarno izgleda kao „greška u kucanju“. Ipak, ne možemo da ne postavimo pitanje – šta bi se dogodilo da je ljudski lekar napravio ovakav propust?

Datalab serveri

AI je pomešao dve stvari, pa je od „basal ganglia“ i „basilar artery“ napravio nešto čega nema. Post u kojem je objavljen „novi“ termin je naknadno ispravljen, ali bez obrazloženja. Iako su iz kompanije grešku opisali kao „slovnu“, lekari su je odmah nazvali AI halucinacijom, situacijom u kojoj AI svoje greške predstavlja kao činjenice.

Pročitajte i:  Indija postaje centar svetske AI revolucije

Doktori upozoravaju da i najmanja greška može da utiče na dijagnozu i plan lečenja, i kažu da vrlo lako može da se dogodi da lekari uopšte ne proveravaju ono što im AI ponudi kao odgovor. Ovo je posebno zabrinjavajuće kada se ima na umu da Google svoje proizvode već testira u pravim bolnicama.

Neki tvrde drugačije:

Greške ne znače da AI ne može da pronađe svoje mesto u medicini. Stručnjaci kažu da bi neke delove posla mogao da olakša, ali samo kada je pod strogom supervizijom. AI ne kaže „ne znam“, već uvek nešto što zvuči kao da je tačno, i u tome je problem.

Možda jednog dana i dobijemo AI asistente koji ne greše kao da su deo nekog naučno-fantastičnog filma u kojem centralni kompjuter spasava stvar (ili uništava sve oko sebe, zavisi od filma), ali je neophodno da se do tada proveri baš sve što veštačka inteligencija iznosi kao činjenice.

Facebook komentari:
Tagovi: , , ,