Craig Federighi, De Apple, Defiende Las Nuevas Protecciones De «Niños Expandidos» Que Dicen Que No Son Una Puerta Trasera.

Los segmentos que generalmente alaban a Apple por sus protecciones de privacidad para los usuarios, ahora están criticando fuertemente su nueva «protección expandida para los niños». Por lo tanto, el vicepresidente de Apple, Craig Federighi, habló con el Wall Street Journal para aclarar el «malentendido» en torno a la caracterización de la implementación, el impacto y la «puerta trasera» de nuevas funciones de seguridad infantil.

En otoño, la compañía lanzará el controvertido sistema de detección de CSAM para evitar difundir la pornografía infantil y la función comunicar la seguridad en los mensajes para desalentar a los niños (12 años o menos) recibir, compartir y ver contenido sexualmente explícito. Además, SIRI y la búsqueda se actualizarán para advertir a los usuarios cuando se busca CSAM.

Federighi dice que los sistemas de comunicación de la detección y mensajería de la CSAM de Apple operan de la manera más auditable y verificable posible

haciendo la distinción entre los sistemas de detección de CSAM y la comunicación de seguridad en los mensajes, Federighi confesó que la empresa Desea que los recursos se hayan anunciado más claramente para eliminar la confusión por la raíz. En la entrevista en video en el canal WSJ YouTube, dijo.

Nos habríamos quedado un poco más ligero, porque todos, porque nos sentimos muy positivos y fuertemente sobre lo que estamos haciendo, y podemos ver que ha sido mal entendido.

Reiteró que Apple no escaneará las fotos privadas de los usuarios y lea sus mensajes; Debido a que la CSAM basada en un sistema de hashing neuronal solo funcionará «en la tubería de transferencia» de la transferencia de iPhones iPhones de los usuarios a iCloud y la seguridad de la comunicación en el mensaje, entrará en acción cuando los padres activen el recurso para la seguridad de sus hijos.

Tratando con la preocupación de violar la privacidad de los usuarios mediante la creación de una puerta trasera para escanear y analizar sus datos, dijo:

Realmente no entiendo esta caracterización. Bueno, ¿quién sabe lo que está siendo verificado? En nuestro caso, la base de datos se envía en el dispositivo. La gente puede ver, y es una imagen única en todos los países. Enviamos el mismo software en China con la misma base de datos que enviamos en Estados Unidos, así como en Europa.

Si alguien vino a Apple, Apple diría que no, pero digamos que no está seguro. Solo quieres confiar en Apple que dice no. Quieres asegurarte de que Apple no se pueda impune si decimos que sí. Bueno, esa fue la barrera que nos pusimos para soltar este tipo de sistema.

Hay varios niveles de auditabilidad, la forma más protegida de privacidad que podemos imaginar y la posible forma verificable. Así que nos aseguramos de que no tenga que confiar en ninguna entidad o incluso en un país, ya que estas imágenes son y qué imágenes forman parte del proceso.

Pero la entrevista no abordó la posible explotación de los recursos por parte de las agencias gubernamentales a largo plazo, qué expertos y empleados de la compañía están destacando.

Compartir