BIZIT 11 - prvi dan

Apple optužen da nije prijavio sumnjive CSAM slučajeve na svojim platformama

Jedan britanski nadzornik navodi da je Apple zaostao za mnogim svojim kolegama u rešavanju ovog problema.

PCPress.rs Image

Apple prošle godine prijavio samo 267 slučajeva sumnjivog CSAM-a

Apple je optužen da nije prijavio učestalost materijala o seksualnom zlostavljanju dece (CSAM) na svojim platformama. Nacionalno društvo za prevenciju okrutnosti prema deci (NSPCC) je dobrotvorna organizacija za zaštitu dece u Velikoj Britaniji. Agencija navodi da je Apple prošle godine prijavio samo 267 slučajeva sumnjivog CSAM-a Nacionalnom centru za nestalu i eksploatisanu decu (NCMEC).

To je daleko manje u poređenju sa 1,47 miliona potencijalnih slučajeva koje je prijavio Google. Takođe, 30,6 miliona izveštaja stigli su od Mete. Druge platforme koje su prijavile više potencijalnih slučajeva CSAM-a nego Apple u 2023. godini uključuju TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537) i PlayStation/Sony Interactive Entertainment (3.974).

Svaka tehnološka kompanija sa sedištem u SAD-u je obavezna da prosledi bilo koji mogući slučaj CSAM-a otkriven na njihovim platformama NCMEC-u. On zatim usmerava slučajeve relevantnim agencijama za sprovođenje zakona širom sveta.

Pročitajte i:  Apple otvara najveću laboratoriju u Kini

NSPCC je takođe naveo da je Apple bio uključen u više CSAM slučajeva (337) u Engleskoj i Velsu. To se dogodilo između aprila 2022. i marta 2023.godine. Dobrotvorna organizacija je koristila zahteve za slobodu informacija kako bi prikupila te podatke od policijskih snaga.

Apple-ove usluge kao što su iMessage, FaceTime i iCloud sve imaju end-to-end enkripciju. Enkripcija sprečava kompaniju da pregleda sadržaj koji korisnici dele na njima. Međutim, WhatsApp takođe ima E2EE, i ta usluga je prijavila skoro 1,4 miliona slučajeva sumnjivog CSAM-a NCMEC-u u 2023. godini.

„Deca mogu biti zaštićena bez kompanija koje pregledaju lične podatke“

„Postoji zabrinjavajuća razlika između broja krivičnih dela sa slikama zlostavljanja dece u Velikoj Britaniji koja se dešavaju na Apple-ovim uslugama i gotovo neznatnog broja globalnih izveštaja o sadržaju zlostavljanja koje oni dostavljaju vlastima,“ rekao je Ričard Kolard. On je šef NSPCC-ove politike bezbednosti dece na internetu. „Apple očigledno zaostaje za mnogim svojim kolegama u rešavanju problema seksualnog zlostavljanja dece. Sve tehnološke firme trebalo bi da ulažu u bezbednost i pripremaju se za uvođenje Zakona o bezbednosti na internetu u Velikoj Britaniji.“

Pročitajte i:  Apple AI i naočare?

U 2021. godini, Apple je najavio planove za uvođenje sistema. Taj sistem bi skenirao slike pre nego što se otpreme na iCloud i upoređivao ih sa bazom podataka poznatih CSAM slika iz NCMEC-a i drugih organizacija. Ali nakon reakcije zagovornika privatnosti i digitalnih prava, Apple je odložio uvođenje svojih alata za otkrivanje CSAM-a. Zatim je konačno ukinuo projekat 2022. godine.

Apple je odbio da komentariše optužbu NSPCC-a. Apple je naveo da je izabrao drugačiju strategiju. Ta strategija daje „prioritet bezbednosti i privatnosti korisnika.“ Kompanija je navela u avgustu 2022. godine da „deca mogu biti zaštićena bez kompanija koje pregledaju lične podatke.“

Izvor: Engadget

Facebook komentari:
Računari i Galaksija
Tagovi: ,