Apple retrasa la implantación de las medidas para prevenir el abuso infantil

📱 Oferta: Hazte con el realme GT Master Edition por solo 🛒 228,69€ en Wisecart [ Oferta ]

Apple ha anunciado recientemente varias funcionalidades de seguridad infantil para iOS 15.

La más polémica es una herramienta de escaneo que comprueba automáticamente cada fotografía que tu iPhone va a subir a iCloud en busca de material de abuso sexual infantil conocido.

TE INTERESA:
Craig Federighi de Apple aclara la confusión respecto a las medidas de protección infantil

Este tipo de herramientas se utilizan habitualmente en los servicios de almacenamiento en la nube y de mensajería, pero la apuesta de Apple por el escaneo en el propio dispositivo ha provocado una gran controversia.

Como resultado, Apple ha anunciado que retrasa la implantación de todas sus nuevas funciones de seguridad infantil.

En un comunicado enviado a 9to5Mac, Apple dice que «ha decidido tomarse un tiempo adicional durante los próximos meses para recopilar información y realizar mejoras» para sus nuevas funciones de seguridad infantil, concretamente el escáner.

Reconoce que «los comentarios de los clientes, los grupos de defensa, los investigadores y otros» han llevado a este cambio de planes.

Aun así, Apple afirma que su sistema de escaneo «está diseñado teniendo en cuenta la privacidad del usuario.»

Antes de que las fotos se almacenen en iCloud, el iPhone intenta cotejarlas con una base de datos de hashes proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil.

Las imágenes coincidentes se almacenan entonces en iCloud con un «ticket de seguridad», básicamente una bandera invisible que solo Apple puede rastrear.

Si tu cuenta de iCloud contiene varias imágenes coincidentes, Apple revisará dichas imágenes manualmente. Las imágenes de abuso sexual infantil confirmadas se comunican entonces al NCMEC.

Apple afirma que este sistema es más seguro que las tecnologías de escaneo sólo en la nube, ya que las imágenes sólo son visibles para la compañía si se marcan antes de salir de tu iPhone.

Pero a los defensores de la privacidad les preocupa que el escáner CSAM de Apple detecte falsos positivos, exponiendo potencialmente imágenes privadas a extraños o abriendo una puerta trasera para gobiernos en busca de cierto material. La tecnología también podría sentar un mal precedente para el futuro.

Todavía no sabemos cómo piensa Apple «mejorar» su escáner.Grandes nombres como Google ya utilizan la tecnología de escaneo en sus servicios de nube y mensajería, y la propia Apple escanea en iCloud Mail.

📱 Oferta: Hazte con el realme GT Master Edition por solo 🛒 228,69€ en Wisecart [ Oferta ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Teknófilo
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario