Apple retrasa la implantación de las medidas para prevenir el abuso infantil

🧹🪣 ¡Conga 8290! ¡Conoce el robot aspirador con mejor calidad-precio que he probado! [Más info ]

Apple ha anunciado recientemente varias funcionalidades de seguridad infantil para iOS 15.

La más polémica es una herramienta de escaneo que comprueba automáticamente cada fotografía que tu iPhone va a subir a iCloud en busca de material de abuso sexual infantil conocido.

Este tipo de herramientas se utilizan habitualmente en los servicios de almacenamiento en la nube y de mensajería, pero la apuesta de Apple por el escaneo en el propio dispositivo ha provocado una gran controversia.

Como resultado, Apple ha anunciado que retrasa la implantación de todas sus nuevas funciones de seguridad infantil.

En un comunicado enviado a 9to5Mac, Apple dice que «ha decidido tomarse un tiempo adicional durante los próximos meses para recopilar información y realizar mejoras» para sus nuevas funciones de seguridad infantil, concretamente el escáner.

Reconoce que «los comentarios de los clientes, los grupos de defensa, los investigadores y otros» han llevado a este cambio de planes.

Aun así, Apple afirma que su sistema de escaneo «está diseñado teniendo en cuenta la privacidad del usuario.»

Antes de que las fotos se almacenen en iCloud, el iPhone intenta cotejarlas con una base de datos de hashes proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil.

Las imágenes coincidentes se almacenan entonces en iCloud con un «ticket de seguridad», básicamente una bandera invisible que solo Apple puede rastrear.

Si tu cuenta de iCloud contiene varias imágenes coincidentes, Apple revisará dichas imágenes manualmente. Las imágenes de abuso sexual infantil confirmadas se comunican entonces al NCMEC.

Apple afirma que este sistema es más seguro que las tecnologías de escaneo sólo en la nube, ya que las imágenes sólo son visibles para la compañía si se marcan antes de salir de tu iPhone.

Pero a los defensores de la privacidad les preocupa que el escáner CSAM de Apple detecte falsos positivos, exponiendo potencialmente imágenes privadas a extraños o abriendo una puerta trasera para gobiernos en busca de cierto material. La tecnología también podría sentar un mal precedente para el futuro.

Todavía no sabemos cómo piensa Apple «mejorar» su escáner.Grandes nombres como Google ya utilizan la tecnología de escaneo en sus servicios de nube y mensajería, y la propia Apple escanea en iCloud Mail.

💻 ¡Rebajas! ¡Clave auténtica de Windows 11 Pro por solo 13.63€! [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario