Apple revisará fotos en iCloud en busca de imágenes de abusos a menores

¿Es el fin de la privacidad para los usuarios apple?

Apple revisará fotos en iCloud en busca de imágenes de abusos a menores
Por: Redacción | El Mexicano | 08/06/2021

Tijuana, B.C., Agosto 06.- Apple Inc informó el jueves que pondrá en marcha un sistema que comprueba las fotos de los iPhones en U.S.A., antes de que se suban a su servicio de almacenamiento iCloud, con el fin de asegurarse de que las imagenes subidas no coincidan con imágenes conocidas de abuso sexual infantil.

La compañía usará herramientas de cifrado que analicen y vinculen imágenes que consideren sospechosas con un número de serie específico para cada una.

Además planean comparar las fotos cargadas en iCloud con las almacenadas en un archivo administrado por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC), una corporación privada estadounidense que trabaja para reducir la explotación sexual infantil.

La detección de subidas de imágenes de abuso infantil suficientes para evitar falsos positivos desencadenará una revisión manual por parte de ejecutivos y un informe sobre el usuario a la policía, dijo Apple. La compañía dijo que el sistema está diseñado para reducir los falsos positivos a uno entre un billón.

Este nuevo sistema de Apple pretende responder a las peticiones de los departamentos de policía para ayudar a frenar los abusos sexuales a menores, presuntamente respetando las prácticas de privacidad y seguridad que son un principio básico de la marca de la empresa. Sin embargo, algunos defensores de la privacidad dijeron que el sistema podría abrir la puerta a la vigilancia de la expresión política u otros contenidos en los iPhones.

La mayoría de los otros grandes proveedores de tecnología, incluyendo a Google de Alphabet Inc, Facebook Inc y Microsoft Corp, ya están cotejando las imágenes con una base de datos de imágenes ya registradas de abuso sexual infantil.

“Con tanta gente que utiliza los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo seducidos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil”, declaró John Clark, director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado. “La realidad es que la privacidad y la protección de los niños pueden coexistir”.

 

Así es como funcionará el sistema de Apple

 Los agentes de las policías mantienen una base de datos de imágenes conocidas de abusos sexuales a menores y traducen esas imágenes en “hashes”, es decir, códigos numéricos que identifican positivamente la imagen pero que no pueden utilizarse para reconstruirlas.

imagen-cuerpo

Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.

Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, los investigadores afirman que esta herramienta de cotejo —que no “ve” esas imágenes, sino las “huellas” matemáticas que las representan— podría tener usos más nefastos.

Apple ha implementado esa base de datos utilizando una tecnología llamada “NeuralHash”, diseñada para captar también imágenes editadas similares a las originales. Esa base de datos se almacenará en los iPhones.

Cuando un usuario suba una imagen al servicio de almacenamiento iCloud de Apple, el iPhone creará un hash de la imagen a subir y lo comparará con la base de datos.

Las fotos almacenadas sólo en el teléfono no se comprueban, indicó Apple, y la revisión manual antes de denunciar una cuenta a las fuerzas del orden está destinada a garantizar que las coincidencias sean auténticas antes de suspender una cuenta.

Aunado a esta situación, la compañía mencionó que los usuarios que consideren que su cuenta ha sido suspendida indebidamente pueden apelar para que se les restablezca.

¿Es el fin de la privacidad para los usuarios apple?

En Twitter, algunos expertos en privacidad y seguridad expresaron su preocupación por la posibilidad de que el sistema se amplíe para escanear los teléfonos de forma más general en busca de contenidos prohibidos o discursos políticos.

Apple ha “enviado una señal muy clara. En su (muy influyente) opinión, es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido”, señaló Matthew Green, uno de los principales investigadores de criptografía y seguridad de la Universidad Johns Hopkins. 

 Advirtiendo que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las autoridades.“Los expertos son capaces de hacerlo con bastante facilidad”, dijo.

Otros abusos de la herramienta podrían incluir el espionaje gubernamental a disidentes o manifestantes. ”¿Qué pasa cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanees’?”, preguntó Green.

”¿Apple dice que no? Espero que diga que no, pero su tecnología no dirá que no”.

Otros investigadores de la privacidad, como India McKinney y Erica Portnoy, de la Electronic Frontier Foundation, escribieron en un blog que puede ser imposible para los investigadores externos comprobar si Apple cumple sus promesas de comprobar sólo un pequeño conjunto de contenidos en el dispositivo.

La empresa ha estado bajo presión gubernamental para que permita una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad le exige a Apple un acto de equilibrismo entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.



MÁS SOBRE Ciencia y Tecnología