Google Gemini pod oznakom „visokog rizika” za decu i tinejdžere
Organizacija Common Sense Media, koja se bavi bezbednošću dece u digitalnom okruženju, objavila je izveštaj o rizicima Google-ovog AI sistema Gemini.

Procena Common Sense Media otkriva da bezbednosne filtere nije dovoljno samo „nadograditi” na verzije za odrasle
Iako je pohvaljeno što Gemini jasno naglašava da je računar, a ne prijatelj – što može da spreči razvoj iluzija i psihoza kod emocionalno ranjivih korisnika – organizacija je ocenila da postoje ozbiljni propusti.
„Decije” verzije zapravo verzije za odrasle sa filterima
U analizi se navodi da su Gemini „Under 13” i „Teen Experience” praktično iste verzije kao za odrasle, samo sa dodatim bezbednosnim filterima. Common Sense smatra da je to pogrešan pristup – umesto prepravke, AI za decu mora biti osmišljen od početka sa naglaskom na razvojne potrebe i sigurnost mladih. Uprkos filterima, Gemini je u testovima mogao da podeli neprimerene i opasne sadržaje, uključujući informacije o seksu, drogama, alkoholu i mentalnom zdravlju, što deca i tinejdžeri nisu spremni da obrade.
Poseban rizik: mentalno zdravlje
Zabrinutost roditelja posebno izaziva činjenica da AI već ima povezanost sa slučajevima tinejdžerskih samoubistava.
- OpenAI se suočava sa prvom tužbom zbog smrti 16-godišnjeg korisnika koji je mesecima razgovarao sa ChatGPT-jem o svojim suicidalnim planovima.
- Character.AI je ranije takođe bio predmet tužbe nakon sličnog slučaja.
U tom kontekstu, rizik da Gemini pruži pogrešan savet mladima ocenjen je kao ozbiljan.
Apple i dodatna zabrinutost
Analiza se poklapa sa glasinama da Apple planira da integriše Gemini kao osnovu za narednu verziju Siri-ja, koja bi trebalo da koristi AI. Ako se to potvrdi, to bi značilo da će još veći broj tinejdžera doći u dodir sa ovim sistemom – osim ako Apple ne uvede strože bezbednosne mere.
„Jedan model za sve” – glavna mana
Prema izjavi Robbieja Torney-a, direktora AI programa u Common Sense Media:
„AI platforma za decu treba da ih prati u skladu sa njihovim uzrastom, a ne da nudi jedno rešenje za sve. Za bezbedan i efikasan AI potreban je dizajn koji od početka uzima u obzir razvojne potrebe dece, a ne samo prilagođavanje verzije za odrasle.”
Zbog toga su obe verzije Gemini-ja za decu i tinejdžere označene kao „High Risk” (visok rizik).
Google-ov odgovor
Google je odbacio deo nalaza, ali je priznao da neke reakcije Gemini-ja nisu radile kako treba i da su naknadno uvedeni dodatni filteri. Kompanija tvrdi da:
- ima posebne politike i zaštitne mehanizme za korisnike mlađe od 18 godina,
- redovno angažuje spoljne eksperte i testne timove (red-teaming),
- sprečava kreiranje privida „pravih odnosa“ sa korisnicima.
Takođe su naveli da izveštaj Common Sense-a možda opisuje funkcije koje nisu dostupne mlađima od 18 godina, ali da organizacija nije podelila pitanja korišćena u testovima.
Kako stoje drugi AI sistemi?
Common Sense Media je već ocenjivao i druge AI proizvode:
- Meta AI i Character.AI – „neprihvatljiv rizik“ (najviši nivo).
- Perplexity – „visok rizik“.
- ChatGPT – „umeren rizik“.
- Claude (dostupan samo odraslima) – „minimalan rizik“.
Iako Google Gemini ima određene zaštite i priznaje problematične slučajeve, stručnjaci smatraju da je potrebno potpuno drugačije dizajnirati AI za decu, a ne samo dodavati filtere na već postojeće verzije.
Izvor: Techcrunch


