Apple escanea TODAS las fotos cargadas por los usuarios en iCloud

Apple escanea TODAS las fotos cargadas por los usuarios en iCloud

Apple comenzó a escanear todas las imágenes cargadas por los usuarios de iPhone, iPad, iPod Touch, Mac en iCloud, el anuncio lo hizo durante CES 2020 uno de los directivos de la empresa estadounidense.

La decisión de Apple de analizar todas las imágenes subidas a iCloud se basa en el objetivo de descubrir cuáles de ellas tienen contenido que pueda sugerir que se está explotando a menores con fines sexuales.

Apple dice que utiliza inteligencia artificial para detectar imágenes de este tipo que se cargan en iCloud, y sus empleados también analizan aquellas que están marcadas como con dicho contenido.

"Apple se dedica a proteger a los niños en todo el ecosistema dondequiera que se utilicen nuestros productos, y continuamos apoyando la innovación en este espacio. Hemos desarrollado protecciones sólidas en todos los niveles de nuestra plataforma de software y en toda la cadena de suministro. Como parte de este compromiso, Apple utiliza tecnología de comparación de imágenes para ayudar a encontrar y denunciar la explotación infantil. Al igual que los filtros de spam de correo electrónico, nuestros sistemas utilizan firmas electrónicas para encontrar sospechas de explotación infantil. Validamos cada partido con revisión individual. Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio y cualquier cuenta que encontremos con este material será deshabilitada”.

Apple avisa a las autoridades cuando descubre imágenes que pueden sugerir que hay niños que han sido explotados sexualmente, y todo sucede sin que quien suba las imágenes lo haga.