(Reescribir, agregar fondo del nuevo escáner, comentario de un experto)
Joseph Menn
Reuters, 17 de agosto: Apple presentó el martes una apelación contra el caso de pérdida de derechos de autor de la startup de seguridad Corellium. La compañía ayudó a los investigadores a examinar programas como el nuevo método planeado por Apple para detectar imágenes de abuso sexual infantil https: // www. Reuters.com/technology / después-de-la-crítica-manzana-solo-buscar-abuso-imágenes-marcadas-múltiples-naciones-2021-08-13.
El año pasado, un juez federal https://www.reuters.com/business/apple-loses-copyright-claims-lawsuit-against-us-security-bug-startup-2020-12-29 desestimó los derechos de autor de Apple sobre Corellium. abogó por hacer un iPhone simulado, y los investigadores lo usan para verificar las funciones de dispositivos estrictamente restringidos.
Los expertos en seguridad son uno de los principales clientes de Corellium. Las vulnerabilidades que descubrieron se informaron a Apple para obtener recompensas en efectivo y se utilizaron en otros lugares, incluidas las utilizadas por el FBI para reprimir a los pistoleros masivos que mataron a varias personas en San Bernardino, California. Teléfono.
El software de Apple es difícil de verificar y los teléfonos de investigación profesionales que proporciona a los expertos preseleccionados tienen muchas limitaciones. La compañía declinó hacer comentarios.
La apelación fue inesperada porque Apple acababa de llegar a un acuerdo con Corellium sobre otros reclamos bajo la Ley de Derechos de Autor del Milenio Digital, evitando el juicio.
Los expertos dijeron que también estaban sorprendidos de que después de argumentar que los investigadores examinarían su controvertido plan para escanear los dispositivos de los clientes, Apple renovó su lucha con un importante proveedor de herramientas de investigación.
“Suficiente”, dijo Amanda Gorton, directora ejecutiva de Corellium. “Apple no puede pretender ser responsable de la comunidad de investigación de seguridad mientras intenta ilegalizar la investigación”.
Según un plan anunciado por Apple a principios de este mes, el software verificará automáticamente las fotos que se planea cargar en el almacenamiento en línea de iCloud desde un teléfono móvil o computadora para ver si coinciden con los identificadores digitales de imágenes conocidas de abuso infantil. Si se encuentran suficientes coincidencias, los empleados de Apple se asegurarán de que la imagen sea ilegal, luego cancelarán la cuenta y remitirán al usuario a la policía.
“Confiaremos en que las personas eludan nuestros mecanismos de protección contra copias para evitar el abuso de estos mecanismos de seguridad infantil”, que es un argumento muy incoherente a nivel interno “, tuiteó David Thiel del Observatorio de Internet de Stanford.
Debido a que Apple se anuncia como comprometida con la privacidad del usuario, y otras compañías solo escanean el contenido después de que se almacena o comparte en línea, las organizaciones de derechos digitales se oponen al plan.
Uno de sus principales argumentos es que, teóricamente, el gobierno puede obligar a Apple a buscar también materiales políticos prohibidos o dirigirse a usuarios individuales.
Al defender el plan, los ejecutivos de Apple dijeron que los investigadores pueden verificar la lista de imágenes prohibidas y verificar los datos enviados a la compañía para que comprenda honestamente lo que está buscando y de quién.
Un ejecutivo dijo que en comparación con el escaneo en el almacenamiento de Apple, este tipo de revisión hace un mejor trabajo al proteger la privacidad general porque mantiene el código en secreto. (Reporte de Joseph Menn y Stephen Nellis en San Francisco; Editado por Rosaba O’Brien y Sandra Mahler)