En 2021, Apple anunció una serie de nuevas funciones de seguridad infantil, incluida la detección de material de abuso sexual infantil (conocida como CSAM por sus siglas en inglés) para las fotos almacenadas en iCloud.
Sin embargo, la medida fue criticada debido a preocupaciones sobre la privacidad y la compañía la dejó en suspenso. Ahora, Apple ha confirmado que ha puesto fin a sus planes de desplegar el sistema de detección de CSAM.
Cuando se anunció la funcionalidad de escaneo CSAM, Apple dijo que sería capaz de detectar material inapropiado en las fotos de los usuarios que se almacenasen en iCloud basándose en una base de datos de hashes de imágenes de abuso [...]
Meta ha compartido nuevas medidas dirigidas a los adolescentes que utilizan el servicio, y tienen como objetivo proteger a los adolescentes de los adultos sospechosos.
En una publicación, Facebook afirma que las nuevas actualizaciones de privacidad son para todos los menores de 16 años (o 18 en algunas regiones).
Según Meta, la plataforma dejará de recomendar «adultos sospechosos» en las recomendaciones de «Personas que puedes conocer». También ocultará el botón de «mensaje» en las cuentas de los adolescentes para que los adultos sospechosos no puedan ponerse en contacto con ellos.
Para Facebook, las «cuentas sospechosas» son aquellas que pertenecen a un adulto [...]
Apple ha anunciado recientemente varias funcionalidades de seguridad infantil para iOS 15.
La más polémica es una herramienta de escaneo que comprueba automáticamente cada fotografía que tu iPhone va a subir a iCloud en busca de material de abuso sexual infantil conocido.
Este tipo de herramientas se utilizan habitualmente en los servicios de almacenamiento en la nube y de mensajería, pero la apuesta de Apple por el escaneo en el propio dispositivo ha provocado una gran controversia.
Como resultado, Apple ha anunciado que retrasa la implantación de todas sus nuevas funciones de seguridad infantil.
En un comunicado enviado a 9to5Mac, Apple dice que «ha [...]
En una entrevista concedida a Wall Street Journal, el vicepresidente senior de Apple, Craig Federighi, habla de la reacción a las funciones de seguridad infantil de iOS 15 anunciadas la semana pasada.
Federighi admite que el anuncio simultáneo de las protecciones de la app Mensajes para niños y el escaneo de fotografías de abuso infantil ha causado confusión en los clientes y que Apple podría haber hecho un mejor trabajo de comunicación.
Federighi reitera que la tecnología de escaneo de fotografías de abuso infantil sólo se aplica a las fotos que se suben a iCloud, y que se desactiva si no se utiliza Fotos de iCloud.
La función utiliza hashes criptográficos para [...]
Apple ha mantenido hoy una sesión informativa sobre sus nuevas funciones de seguridad para reducir la distribución de material de abuso infantil.
Durante la sesión, Apple dijo que, aunque no tiene nada que compartir hoy en términos de anuncio, la expansión de las características de seguridad infantil a terceros para que los usuarios estén aún más ampliamente protegidos sería un objetivo deseable.
Por si no estás al tanto, Apple ha presentado recientemente tres nuevas funciones de seguridad infantil que llegarán a futuras versiones de iOS 15, iPadOS 15, macOS Monterey y/o watchOS 8.
En primer lugar, la app Mensajes en iPhone, iPad y Mac podrá advertir a los niños [...]
En un documento de seis páginas de preguntas frecuentes, Apple ha aclarado algunas dudas sobre el funcionamiento de su tecnología de identificación de imágenes de abuso infantil.
El primer uso de su tecnología tiene que ver con la detección de fotos sexualmente explícitas enviadas o recibidas por niños de 12 años o menos a través de la aplicación Mensajes.
Esta capacidad utiliza el aprendizaje automático en el dispositivo para difuminar automáticamente las imágenes problemáticas, informar a los niños de que no tienen por qué ver el contenido, ofrecerles orientación e informar a sus padres si siguen optando por ver dichas imágenes.
Los niños de entre 13 y 17 años [...]
John Henry Skillern fue detenido el pasado jueves por posesión de material de abuso infantil. El trabajador de un restaurante, de 41 años, presuntamente enviaba imágenes indecentes de niños a un amigo.
Aunque fue la policía la que obtuvo una orden de registro de la tablet y el ordenador de Skillern y lo puso bajo custodia, fue Google quien avisó de sus actividades ilegales.
Esto se debe a que Gmail escanea todas las imágenes que pasan por los buzones de sus usuarios para ver si coinciden con material de abuso infantil conocido.
La mayoría de las personas parece estar de acuerdo en que esto es algo bueno aunque, como ha ocurrido con las medidas anunciadas por [...]
Apple ha respondido a las preocupaciones sobre sus próximas medidas para limitar la difusión de material de abuso infantil.
La compañía asegura que su herramienta para localizar imágenes de abuso infantil en el dispositivo de un usuario no crea una puerta trasera ni reduce la privacidad.
La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que utiliza criptografía para comparar las imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados.
Algunos defensores de la privacidad se mostraron preocupados tras el anuncio de Apple de [...]
Como adelantábamos hace unas horas, Apple ha anunciado hoy nuevas medidas para limitar la difusión de material de abuso sexual infantil (o CSAM por sus siglas en inglés).
La compañía está introduciendo funciones de seguridad infantil en tres áreas, desarrolladas en colaboración con expertos en seguridad infantil.
En primer lugar, la aplicación Mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible al niño y a los padres, manteniendo las comunicaciones privadas ilegibles para Apple.
Por otro lado, iOS y iPadOS utilizarán nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, al [...]