Meta rompe con Sama tras revelarse que empleados revisaban vídeos sensibles de sus gafas

Meta vuelve a estar en el centro de una polémica de privacidad por sus gafas inteligentes Ray-Ban Meta. Según una investigación conjunta de los diarios suecos Svenska Dagbladet y Göteborgs-Posten, trabajadores subcontratados en Kenia habrían tenido que revisar vídeos e imágenes capturados por las gafas, incluyendo escenas extremadamente sensibles de usuarios en el baño, cambiándose de ropa, viendo pornografía o manteniendo relaciones sexuales.

El caso ha dado un nuevo giro después de que Meta decidiera poner fin a su contrato con Sama, la empresa de externalización con sede en Nairobi que empleaba a estos trabajadores para tareas de anotación de datos e IA. La consecuencia inmediata ha sido el despido de más de 1.000 empleados, según informó The Guardian.

 

Los trabajadores entrenaban la IA de las gafas inteligentes

Los empleados afectados trabajaban principalmente como anotadores de datos. Su labor consistía en revisar contenido visual, de audio y texto para etiquetarlo y ayudar a mejorar los sistemas de inteligencia artificial de Meta. Es un trabajo invisible para la mayoría de usuarios, pero esencial para que productos como las gafas Ray-Ban Meta puedan reconocer objetos, responder preguntas sobre lo que ven o entender mejor las órdenes del usuario.

El problema es que, según los testimonios recogidos por la investigación sueca, ese material no siempre era inocuo. Algunos trabajadores afirmaron haber visto escenas procedentes de hogares occidentales en las que aparecían personas desnudas, usuarios utilizando el baño, parejas teniendo sexo o incluso datos bancarios visibles por accidente.

La investigación también señala que, aunque Meta asegura que existen mecanismos de anonimización, esos sistemas no siempre habrían funcionado correctamente. Algunos trabajadores indicaron que en ciertos vídeos podían verse rostros o información sensible que, en teoría, debería haber quedado oculta

 

Meta defiende que existe consentimiento del usuario

Meta sostiene que las fotos y vídeos son privados para los usuarios y que la revisión humana de contenido relacionado con IA se realiza para mejorar el rendimiento de sus productos, con consentimiento claro del usuario. En declaraciones recogidas por The Guardian, la compañía afirmó además que decidió terminar su relación con Sama porque esta no cumplía sus estándares.

La explicación, sin embargo, deja varias preguntas abiertas. Una cosa es que el propietario de las gafas acepte compartir datos para mejorar un servicio, y otra muy distinta es qué ocurre con las personas que aparecen en esos vídeos sin saber que están siendo grabadas. En un dispositivo con cámara integrada en la montura, el consentimiento de terceros es uno de los puntos más delicados.

También queda por aclarar hasta qué punto los usuarios entienden realmente que ciertas interacciones con las gafas pueden terminar siendo revisadas por personas. El problema no es solo legal, sino de confianza: muchos consumidores asumen que la IA funciona de forma automática, sin imaginar que parte del proceso puede implicar revisión humana.

 

Más de 1.000 empleados despedidos con pocos días de aviso

La decisión de Meta de cortar la relación con Sama no ha solucionado el problema de fondo, pero sí ha tenido consecuencias inmediatas para los trabajadores. Según The Guardian, más de 1.000 empleados de Sama en Kenia fueron despedidos después de que Meta terminara el contrato, y recibieron un aviso de apenas seis días, según la organización Oversight Lab.

Oversight Lab, una entidad que defiende los derechos laborales en la industria tecnológica africana, está asesorando a los trabajadores afectados sobre sus posibles opciones legales. El caso vuelve a poner de manifiesto la precariedad de muchos empleos vinculados al entrenamiento de inteligencia artificial, especialmente en países del sur global.

Los empleados de anotación de datos suelen estar expuestos a contenidos duros, repetitivos o psicológicamente dañinos, pero rara vez reciben el reconocimiento, la protección o la remuneración que correspondería a la importancia de su trabajo. En este caso, además, quienes denunciaron la exposición a material íntimo han terminado perdiendo su empleo tras la ruptura del contrato.

 

Un viejo problema de la IA: los humanos detrás de la “magia”

La inteligencia artificial suele presentarse como una tecnología automática, limpia y casi invisible. Pero detrás de muchos sistemas hay miles de personas etiquetando datos, revisando respuestas, corrigiendo errores y clasificando imágenes o vídeos para que los modelos funcionen mejor.

El caso de las Ray-Ban Meta muestra el lado menos cómodo de esa cadena. Para que unas gafas puedan entender lo que ven, alguien tiene que ayudar a entrenar el sistema. Y cuando ese “alguien” se encuentra con imágenes privadas, íntimas o perturbadoras, la frontera entre innovación y explotación laboral se vuelve mucho más borrosa.

No es la primera vez que Sama aparece vinculada a controversias por moderación de contenidos. The Guardian recuerda que, en una demanda anterior relacionada con despidos de moderadores de contenido para Meta, trabajadores alegaron haber sufrido estrés postraumático, depresión y ansiedad tras exponerse durante largos periodos a material gráfico perturbador.

 

Las gafas inteligentes abren un debate incómodo sobre privacidad

Las Ray-Ban Meta son uno de los productos más exitosos de la nueva generación de gafas inteligentes. Su propuesta es sencilla: una montura de aspecto convencional, cámara integrada, micrófonos, altavoces y funciones de IA capaces de responder preguntas sobre lo que el usuario está viendo.

Precisamente esa naturalidad es lo que hace que el producto resulte atractivo, pero también problemático. A diferencia de un móvil, que suele levantarse de forma visible para grabar, unas gafas pueden registrar imágenes desde el punto de vista del usuario sin que las personas alrededor lo perciban claramente.

Meta incluye un indicador luminoso para avisar cuando se está grabando, pero los críticos llevan tiempo cuestionando si ese aviso es suficiente, especialmente en situaciones de baja visibilidad, espacios concurridos o contextos íntimos. Las preocupaciones aumentan si, además, parte del contenido capturado puede ser procesado o revisado fuera del dispositivo.

Gafas de sol negras de diseño clásico, ideales para protección UV y estilo moderno. Elegancia y confort en un accesorio.

 

El consentimiento de terceros, el gran agujero del modelo

El consentimiento del usuario de las gafas no resuelve todos los problemas. Si alguien graba accidentalmente a su pareja saliendo del baño, a una persona cambiándose o una conversación privada en casa, esas personas no han aceptado necesariamente que su imagen o voz forme parte de un proceso de entrenamiento de IA.

Este es uno de los grandes retos de los dispositivos con cámaras siempre disponibles. En un smartphone, la acción de grabar suele ser más evidente. En unas gafas, la cámara forma parte del rostro del usuario y puede confundirse con una montura normal. Eso cambia radicalmente la percepción social de la grabación.

La situación se complica aún más cuando esos datos viajan a servidores, son procesados por sistemas automáticos y pueden acabar en manos de trabajadores externos que los revisan desde otro país. La cadena de custodia de la información se vuelve mucho más opaca para el usuario y prácticamente invisible para quienes aparecen en las imágenes.

 

Meta no puede limitarse a cambiar de proveedor

La decisión de romper con Sama puede interpretarse como una respuesta rápida al escándalo, pero no basta para disipar las dudas. El problema no es únicamente qué empresa revisaba los datos, sino por qué ese tipo de contenido llegó a una cola de revisión humana y qué mecanismos existen para evitar que vuelva a ocurrir.

Meta tendrá que explicar con más claridad qué datos capturan sus gafas, cuándo se envían a la nube, qué se revisa manualmente, qué controles tiene el usuario, cómo se protege a las personas que aparecen en las grabaciones y qué medidas de apoyo reciben los trabajadores que procesan contenido sensible.

También sería razonable esperar ajustes en el diseño del producto. Las gafas inteligentes necesitan indicadores más claros, controles de privacidad más comprensibles y límites más estrictos para evitar que vídeos íntimos o accidentales terminen siendo usados en procesos de entrenamiento.

 

Un aviso para toda la industria de las gafas con IA

El caso llega en un momento en el que muchas tecnológicas preparan o impulsan sus propias gafas inteligentes. Meta ya está en el mercado, Google trabaja en gafas con Gemini, Samsung prepara modelos con Android XR y Apple aparece de forma recurrente en rumores sobre futuros dispositivos de este tipo.

Todas estas compañías se enfrentan al mismo dilema: cuanto más contextual y útil quiere ser la IA, más datos necesita capturar del entorno del usuario. Y cuanto más íntimo es ese entorno, mayor es el riesgo de cruzar líneas que los consumidores no están dispuestos a aceptar.

Las gafas con IA pueden ser útiles para traducir señales, hacer fotos sin manos, recibir indicaciones, asistir a personas con discapacidad visual o responder preguntas sobre el mundo real. Pero si el precio de esa comodidad es que escenas privadas terminen en una mesa de anotación al otro lado del mundo, la confianza en el producto puede evaporarse rápidamente.

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario