Apple escaneará iPhone de EE. UU. En busca de imágenes de abuso sexual infantil

Mundo

This May 21, 2021 photo shows the Apple logo displayed on a Mac Pro desktop computer in New York. Apple is planning to scan U.S. iPhones for images of child abuse, drawing applause from child protection groups but raising concern among security researchers that the system could be misused by governments looking to surveil their citizens.(AP Photo/Mark Lennihan)

(NEXSTAR) – Apple dio a conocer planes para escanear iPhones de EE. UU. en busca de imágenes de abuso sexual infantil, lo que provocó el aplauso de los grupos de protección infantil, pero generó preocupación entre algunos investigadores de seguridad de que los gobiernos podrían usar mal el sistema para vigilar a sus ciudadanos.

Apple dijo que su aplicación de mensajería utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible sin hacer que las comunicaciones privadas sean legibles por la compañía. La herramienta que Apple llama “neuralMatch” detectará imágenes conocidas de abuso sexual infantil sin descifrar los mensajes de las personas. Si encuentra una coincidencia, la imagen será revisada por un humano que puede notificar a la policía si es necesario.

Pero los investigadores dicen que la herramienta podría utilizarse para otros fines, como la vigilancia gubernamental de disidentes o manifestantes.

A Matthew Green de Johns Hopkins, un importante investigador de criptografía, le preocupaba que pudiera usarse contra personas inocentes enviándoles imágenes inofensivas diseñadas para aparecer como coincidencias con pornografía infantil, engañando al algoritmo de Apple y alertando a las fuerzas del orden, esencialmente incriminando a las personas. “Los investigadores han podido hacer esto con bastante facilidad”, dijo.

Empresas tecnológicas como Microsoft, Google, Facebook y otras han estado compartiendo durante años “listas hash” de imágenes conocidas de abuso sexual infantil. Apple también ha estado escaneando archivos de usuarios almacenados en su servicio iCloud , que no está cifrado de forma tan segura como sus mensajes. para tales imágenes.

Algunos dicen que esta tecnología podría dejar a la empresa vulnerable a la presión política en estados autoritarios como China. “¿Qué sucede cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanee’”, dijo Green. “¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no “.

La empresa ha estado bajo presión de los gobiernos y las fuerzas del orden para permitir la vigilancia de los datos cifrados. La adopción de las medidas de seguridad requirió que Apple realizara un delicado acto de equilibrio entre tomar medidas enérgicas contra la explotación de los niños y mantener su compromiso de alto perfil de proteger la privacidad de sus usuarios.

Apple cree que logró esa hazaña con tecnología que desarrolló en consulta con varios criptógrafos prominentes, incluido el profesor de la Universidad de Stanford Dan Boneh, cuyo trabajo en el campo ha ganado un Premio Turing, a menudo llamado la versión tecnológica del Premio Nobel.

El científico informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por las fuerzas del orden para identificar la pornografía infantil en línea, reconoció el potencial de abuso del sistema de Apple, pero dijo que el imperativo de luchar contra el abuso sexual infantil lo superaba con creces.

“¿Es posible? Por supuesto. ¿Pero es algo que me preocupa? No ”, dijo Hany Farid, un investigador de la Universidad de California, Berkeley, quien sostiene que muchos otros programas diseñados para proteger dispositivos de diversas amenazas no han visto“ este tipo de misión lenta ”. Por ejemplo, WhatsApp proporciona a los usuarios cifrado de extremo a extremo para proteger su privacidad, pero emplea un sistema para detectar malware y advertir a los usuarios que no hagan clic en enlaces dañinos.

Apple también describió en su página de Seguridad Infantil cómo la compañía está instituyendo nuevas herramientas para padres en su aplicación de mensajería:

Al recibir este tipo de contenido, la foto se verá borrosa y se advertirá al niño, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto. Como precaución adicional, también se le puede decir al niño que, para asegurarse de que está seguro, sus padres recibirán un mensaje si lo ven. Existen protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. El niño será advertido antes de que se envíe la foto y los padres pueden recibir un mensaje si el niño decide enviarlo.

(Manzana)

“Messages utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita”, continúa Apple. “La función está diseñada para que Apple no tenga acceso a los mensajes”.

La herramienta de seguridad de la comunicación estará disponible para las cuentas de EE. UU. Configuradas como familias en iCloud para iOS 15, iPadOS 15 y macOS Monterey y llegará en una actualización a finales de este año.

Apple fue una de las primeras empresas importantes en adoptar el cifrado “de extremo a extremo”, en el que los mensajes se codifican para que solo sus remitentes y destinatarios puedan leerlos. Sin embargo, las fuerzas del orden han presionado durante mucho tiempo para acceder a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.

“La protección ampliada de Apple para los niños es un cambio de juego”, dijo John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado. “Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo atraídos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil “.

Julia Cordua, directora ejecutiva de Thorn, dijo que la tecnología de Apple equilibra “la necesidad de privacidad con la seguridad digital para los niños”. Thorn, una organización sin fines de lucro fundada por Demi Moore y Ashton Kutcher, utiliza la tecnología para ayudar a proteger a los niños del abuso sexual identificando a las víctimas y trabajando con plataformas tecnológicas.

Associated Press contribuyó a este informe.

Copyright 2021 Nexstar Media Inc. All rights reserved. This material may not be published, broadcast, rewritten, or redistributed.