Lo mejor de la información de Nuevo León, México y el mundo
Facebook POSTA header X POSTA header Instagram POSTA header Youtube POSTA header TikTok POSTA header
Share

Escaneará Apple iPhones en busca de fotos de abuso infantil

Apple anunció que su aplicación de mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible

Escaneará Apple iPhones en busca de fotos de abuso infantil

Publicado el

Por: Associated Press

ESTADOS UNIDOS.- Apple presentó sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que complace a los grupos de protección de los niños, pero suscita la preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos.

Apple anunció que su aplicación de mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible sin que las conversaciones privadas puedan ser leídas por la empresa.

La herramienta que Apple denomina “neuralMatch” detectará imágenes de abuso sexual infantil previamente identificadas sin comprometer los mensajes de los usuarios. Si encuentra una coincidencia, la imagen será revisada por un empleado que notificará a las autoridades si es necesario.

Pero los investigadores afirman que la herramienta podría destinarse a otros fines, como la vigilancia gubernamental de disidentes o manifestantes.

Al investigador en criptografía Matthew Green, de la Universidad Johns Hopkins, le preocupa la posibilidad de que se utilice para inculpar a personas inocentes enviándoles imágenes inofensivas pero malintencionadas, diseñadas para que aparezcan como coincidentes con las de pornografía infantil. Esto engañaría al algoritmo de Apple y alertaría a las autoridades para incriminar a la persona.

“Esto es algo que se puede hacer”, dijo Green. “Los expertos son capaces de hacerlo con bastante facilidad”.

Compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo “listas de hash” de imágenes de abusos sexuales a menores. Apple también ha estado analizando los archivos de los usuarios almacenados en su servicio iCloud, que no está tan encriptado como sus mensajes, en busca de este tipo de imágenes.

Síguenos en Google News
Comparte esta nota Copiar Liga
URL copiada al portapapeles
Otras Noticias