Apple Retrasa La Implementación Del Sistema De Escaneo De Fotos De Csam Debido A Problemas De Privacidad

Como parte de sus esfuerzos para mejorar las funciones de seguridad infantil, Apple ha revelado sus planes para escanear fotos de iCloud para niños en material potencial de abuso sexual (CSAM) a principios del mes pasado. Después de la reacción de expertos en seguridad y grupos de derechos digitales, como la Fundación Frontera electrónica, Apple retrasó el lanzamiento de la detección de CSAM.

Apple retrasa la implementación de la detección de CSAM

Apple se preparó inicialmente para implementar la detección de CSAM a finales de este año. Es aplicable a las cuentas configuradas como familias en iCloud para iOS 15, IPADA 15 y Monterey Macs. El gigante cupertino no reveló la nueva fecha para el lanzamiento de la apelación todavía. Apple tampoco detalló la planificación de la detección de CSAM o cómo abordar la función para ofrecer un equilibrio saludable entre la privacidad y la seguridad. «Anteriormente, anunciamos planes para que los recursos para ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlas y explotarlas y para ayudar a limitar la difusión del material de abuso sexual infantil. Sobre la base de los comentarios de los clientes, los grupos de defensa, los investigadores y otros, decidimos reservar un tiempo adicional en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil extremadamente importantes «, dijo Apple una declaración oficial.

Para recordar, la detección de CSAM de Apple funciona en el dispositivo y no escanea imágenes en la nube. Intenta detectar imágenes de imágenes de imágenes proporcionadas por NCMEC y otras organizaciones de seguridad infantil. Este proceso de coincidencia en el dispositivo se produce inmediatamente antes de cargar una imagen para las fotos de iCloud. Sin embargo, los investigadores descubrieron colisiones hash que pueden detectar esencialmente imágenes como falsos positivos. También se reveló que Apple ha verificado el correo de ICLOUD en busca de abuso infantil desde 2019.

a través de macrumors

Compartir