Apple está abierto a expandir el sistema de detección de abuso infantil a apps de terceros

📱 ¡Ofertón! Los Xiaomi 11T / 11T Pro con 100€ de descuento y Mi Band 6 gratis en Goboo [ Oferta ]

Apple ha mantenido hoy una sesión informativa sobre sus nuevas funciones de seguridad para reducir la distribución de material de abuso infantil.

Durante la sesión, Apple dijo que, aunque no tiene nada que compartir hoy en términos de anuncio, la expansión de las características de seguridad infantil a terceros para que los usuarios estén aún más ampliamente protegidos sería un objetivo deseable.

TE INTERESA:
Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera

Por si no estás al tanto, Apple ha presentado recientemente tres nuevas funciones de seguridad infantil que llegarán a futuras versiones de iOS 15, iPadOS 15, macOS Monterey y/o watchOS 8.

En primer lugar, la app Mensajes en iPhone, iPad y Mac podrá advertir a los niños cuando reciban o envíen fotos sexualmente explícitas, así como avisar a sus padres. Cuando la función está activada, Mensajes analizará las imágenes recibidas y, si se determina que una foto es sexualmente explícita, se difuminará automáticamente y el niño será advertido.

Apple no proporcionó ningún ejemplo específico, pero una posibilidad sería que esta función de seguridad  se pusiera a disposición de apps como Snapchat, Instagram o WhatsApp para que las fotos sexualmente explícitas que reciba un niño queden difuminadas. A fin de cuentas, en países como España, la mayoría de los usuarios de iPhone utilizan WhatsApp antes que Mensajes para comunicarse.

En segundo lugar, los dispositivos de Apple detectarán imágenes conocidas de material de abuso sexual infantil que se van a subir a iCloud, lo que permitirá a Apple informar de estos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización sin ánimo de lucro que trabaja en colaboración con las fuerzas de seguridad de Estados Unidos. Apple ha confirmado hoy que el proceso sólo se aplicará a las fotos que se suban a Fotos de iCloud y no a los vídeos.

De nuevo, aunque Apple no ha dado ningún ejemplo, una posibilidad sería que este sistema de detección de imágenes de abusos se ampliase a apps de terceros que suben fotos a otros lugares distintos a iCloud.

En tercer lugar, Apple ampliará la orientación en Siri y Spotlight Search en todos los dispositivos proporcionando recursos adicionales para ayudar a los niños y a los padres a mantenerse seguros online y obtener ayuda en situaciones inseguras.

Apple no proporcionó un calendario sobre cuándo podrían ampliarse las funciones de seguridad infantil a terceros, señalando que todavía tiene que completar las pruebas y el despliegue de las funciones, y la compañía también dijo que tendría que asegurarse de que cualquier posible expansión no socavaría las propiedades de privacidad o la eficacia de las funciones.

En términos generales, Apple dijo que la ampliación de las funciones a terceros es el enfoque general de la compañía y lo ha sido desde que introdujo el soporte para aplicaciones de terceros con la introducción de la App Store en iOS 2 en 2008.

📱 Oferta: Hazte con el realme GT Master Edition por solo 🛒 228,69€ en Wisecart [ Oferta ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Teknófilo
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario