Apple no cederá ante presiones para utilizar su tecnología de escaneo de fotos con otros fines

💻 ¡Rebajas! ¡Clave auténtica de Windows 11 Pro por solo 13.63€! [ Saber más ]

En un documento de seis páginas de preguntas frecuentes, Apple ha aclarado algunas dudas sobre el funcionamiento de su tecnología de identificación de imágenes de abuso infantil.

El primer uso de su tecnología tiene que ver con la detección de fotos sexualmente explícitas enviadas o recibidas por niños de 12 años o menos a través de la aplicación Mensajes.

Esta capacidad utiliza el aprendizaje automático en el dispositivo para difuminar automáticamente las imágenes problemáticas, informar a los niños de que no tienen por qué ver el contenido, ofrecerles orientación e informar a sus padres si siguen optando por ver dichas imágenes.

Los niños de entre 13 y 17 años recibirán una orientación similar, pero sus padres no serán informados. Para que este flujo funcione, las cuentas de los niños deben estar configuradas en los ajustes familiares de iCloud, la función debe estar activada y las notificaciones parentales deben estar activadas para los niños.

Ninguna otra entidad, ni siquiera Apple o una autoridad policial, es informada si un niño envía o recibe imágenes sexualmente explícitas. Por lo tanto, esto no rompe ninguna garantía de privacidad existente ni el cifrado de extremo a extremo. Apple ha hecho hincapié en que la función se aplica únicamente a Mensajes.

El segundo uso de la tecnología consiste en identificar imágenes de abuso infantil en la galería de Fotos de iCloud. En este caso, los hashes de las imágenes de iCloud se compararán con imágenes conocidas de abuso, y se notificará a Apple si se detecta una coincidencia.

Esta característica no funciona para las imágenes privadas en el dispositivo o si Fotos de iCloud está desactivada.

La empresa ha subrayado que no descarga ninguna imagen en el dispositivo para compararla. En su lugar, calcula los hashes de tus imágenes y los compara con el contenido conocido para determinar una coincidencia.

La empresa también ha afirmado que su sistema no funciona para nada más que imágenes de abuso infantil, ya que incluso la posesión de dichas imágenes es ilegal en muchos países. Dicho esto, las autoridades no son informadas automáticamente. Si hay una coincidencia, Apple realiza primero una revisión humana antes de notificar a las autoridades.

El gigante tecnológico de Cupertino ha declarado tajantemente que no añadirá a su repositorio imágenes que no sean de abuso infantil para su comparación, aunque haya presiones de ciertos gobiernos.

En la misma línea, la propia Apple no añade hashes sobre la base de datos de imágenes CSAM conocidas, y como todas ellas se almacenan a nivel de sistema operativo, no se puede apuntar a personas concretas mediante el uso indebido de la tecnología.

Por último, Apple indica que su sistema es extremadamente preciso y que la probabilidad de un falso positivo es inferior a uno por cada billón de imágenes al año. Incluso en el peor de los casos, hay un revisor humano que realiza una revisión manual de una cuenta marcada antes de que se informe al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

🧹🪣 ¡Conga 8290! ¡Conoce el robot aspirador con mejor calidad-precio que he probado! [Más info ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario