detectará fotos sexualmente explícitas de niños en iPhone – el Financiero

manzana anunció que lanzará un nuevo software a finales de este año que analizará las fotos almacenadas en la cuenta de Fotos de iCloud de los usuarios en busca de imágenes sexualmente explícitas de niños, y luego denunciar las instancias a las autoridades pertinentes.

La medida generó rápidamente preocupaciones entre los defensores de la privacidad.

Como parte de las nuevas medidas de seguridad que involucran a niños, la compañía también anunció una característica que analizará las fotos enviadas y recibidas en la aplicación Mensajes hacia o desde los niños para ver si son explícitos.


Apple también está desarrollando funciones en su asistente de voz digital Siri intervenir cuando los usuarios busquen material abusivo. El gigante tecnológico con sede en Cupertino, California, anticipó las tres nuevas funciones el jueves, diciendo que estará disponible más adelante en 2021.

En el caso de que Apple detecte fotos sexualmente explícitas de niños en la cuenta de un usuario, las instancias serán revisadas manualmente por la empresa e informadas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) que trabaja con agencias de aplicación de la ley. Apple dijo que las imágenes se analizarán previamente en el iPhone y el iPad de un usuario en los Estados Unidos antes de cargarlas en la nube.

Apple dijo que detectará tales imágenes comparando fotos con una base de datos de material conocido de abuso sexual infantil, o CSAM, proporcionada por NCMEC. La empresa está utilizando una tecnología llamada NeuralHash que analiza las imágenes y las convierte en una clave hash o un conjunto único de números. Luego, esa clave se compara con la base de datos mediante criptografía.

READ  Un fallo de seguridad del iPhone permite enviar whatsapps desde el móvil bloqueado de otra persona

La Electronic Frontier Foundation (EFF) dijo que Apple estaría actuando con estas nuevas herramientas de manera inconsistente con sus características tan promocionadas de Intimidad.


«Es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños», dijo la EFF en una publicación en su sitio web. “Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado de mensajes y abrirá la puerta a otros tipos de abuso”.

Otros investigadores también estaban preocupados. «Independientemente de los planes a largo plazo de Apple, la compañía envió una señal muy clara», escribió en Twitter Matthew Green, profesor de criptografía en la Universidad Johns Hopkins. «En su opinión (muy influyente), es seguro crear sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido».

Los críticos dijeron que la medida no se alinea con las campañas publicitarias de Apple «lo que sucede en su iPhone, permanece en su iPhone». «Esto traiciona completamente las garantías de privacidad de la empresa», escribió el periodista Dan Gillmor. “Este es solo el comienzo de lo que exigirán los gobiernos de todo el mundo. Todos los datos estarán a tu disposición. Si piensa lo contrario, está siendo muy ingenuo. «

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *