La nueva herramienta de Apple para solucionar el problema Posible abuso infantil en fotos de iPhone Ha provocado controversia. El viernes, un día después del anuncio, Will Cathcart, jefe de la aplicación de mensajería de Facebook WhatsApp, dijo que la compañía se negaría a adoptar el software con el argumento de que presentaba una serie de problemas legales y de privacidad.
“Leí la información divulgada por Apple ayer y estoy muy preocupado. Creo que este es un enfoque equivocado y un revés para la privacidad de las personas en todo el mundo”, escribió Cascart en Twitter. “La gente pregunta si adoptaremos este sistema en WhatsApp. La respuesta es no”.
En una serie de tweets, Cathcart elaboró estas preocupaciones con el argumento de que las empresas de software espía y los gobiernos tienen la capacidad de elegir el software y que el software sin censura puede violar la privacidad.
“¿El software de escaneo que se ejecuta en su teléfono está a prueba de errores? No se permitió a los investigadores detectarlo”, escribió. “¿Por qué no? ¿Cómo sabemos con qué frecuencia los errores violan la privacidad de las personas?”
En el anuncio de software emitido el jueves, Apple dijo que había programado el lanzamiento de la actualización a fines de 2021 como parte de una serie de cambios que la compañía planea implementar para proteger a los niños de la agresión sexual. Como Gizmodo Reportado antes, La herramienta recomendada utilizará el “Función de coincidencia neuronal“Llamado NeuralHash para determinar si la imagen en el dispositivo del usuario coincide con una huella digital de material de abuso sexual infantil (CSAM) conocido, ha causado cierto grado de pánico entre los expertos en seguridad.
G / O Media puede recibir comisiones
En agosto 4 tweets, Matthew Green, profesor asociado Instituto Johns Hopkins para la seguridad de la informaciónAdvirtió que la herramienta podría convertirse eventualmente en pionera en “agregar monitoreo a los sistemas de mensajería encriptada”.
“He recibido una confirmación independiente de varias personas de que Apple lanzará mañana una herramienta cliente para el escaneo CSAM. Esto es realmente una mala idea”, dijo Green. Pío“Estas herramientas permitirán a Apple escanear las fotos de su iPhone, buscar fotos que coincidan con un hash perceptual específico y, si hay demasiadas, informarlas a los servidores de Apple”.
Pero según Apple, La descripción de Cathcart del software que se utiliza para “escanear” dispositivos no es del todo precisaLa compañía dijo que si bien el escaneo significa resultados, el nuevo software solo comparará las imágenes que un usuario determinado elija cargar en iCloud utilizando la herramienta NeuralHash. El resultado del escaneo estará contenido en un comprobante de seguridad cifrado, esencialmente una bolsa de bits de datos interpretables en el dispositivo, y el contenido del comprobante debe enviarse antes de que pueda leerse. En otras palabras, Apple no recopilará ningún dato de las bibliotecas de fotos de los usuarios individuales debido a este escaneo, a menos que se abastezcan de materiales de abuso sexual infantil (CSAM).
Según Apple, aunque existe la posibilidad de una mala lectura, el porcentaje de usuarios que son enviados incorrectamente para revisión manual será menor a 1 Trillones por año.