Apple je najavio detalje sistema za pronalaženje materijala za seksualno zlostavljanje djece (CSAM) na uređajima korisnika SAD -a.
Prije nego što se slika pohrani na iCloud Photos, tehnologija će tražiti podudaranja već poznatog CSAM -a.
Apple je rekao da će, ako se pronađe podudarnost, recenzent procijeniti i prijaviti korisnika policiji.
Međutim, postoji zabrinutost zbog privatnosti da bi se tehnologija mogla proširiti na skeniranje telefona u potrazi za zabranjenim sadržajem ili čak političkim govorom.
Stručnjaci se brinu da bi autoritarne vlade mogle koristiti tu tehnologiju za špijuniranje svojih građana.
Apple je rekao da će nove verzije iOS -a i iPadOS -a - koje bi trebale biti objavljene kasnije ove godine - imati "nove aplikacije kriptografije koje će pomoći u ograničavanju širenja CSAM -a na internetu.
Sistem funkcioniše tako što upoređuje slike sa bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i eksploatisanu djecu (NCMEC) i druge organizacije za zaštitu djece.
Te slike se prevode u "raspršivače", numeričke kodove koji se mogu "uskladiti" sa slikom na Apple uređaju.
Apple kaže da će tehnologija uhvatiti i uređene, ali slične verzije originalnih slika.
Kompanija kaže da nova tehnologija nudi "značajne" prednosti privatnosti u odnosu na postojeće tehnike - jer Apple saznaje samo o fotografijama korisnika ako imaju zbirku poznatih CSAM -a na svom računu iCloud Photos.
Međutim, neki stručnjaci za privatnost izrazili su zabrinutost.
"Bez obzira na Appleove dugoročne planove, oni su poslali vrlo jasan signal. Po njihovom (vrlo utjecajnom) mišljenju, sigurno je izgraditi sisteme koji skeniraju telefone korisnika u potrazi za zabranjenim sadržajem", rekao je Matthew Green, istraživač sigurnosti na Univerzitetu Johns Hopkins.
"Hoće li se u tom pogledu pokazati da su u pravu ili ne, teško da je važno. Ovo će slomiti branu - vlade će to zahtijevati od svih".