IA

Así utiliza Facebook la Inteligencia Artificial para detectar contenido a eliminar

Cuando Mark Zuckerberg testificó ante el Congreso de EE.UU. hace una semana, dijo repetidamente que Facebook planeaba usar inteligencia artificial para solucionar algunos de sus problemas más complicados de privacidad y seguridad.

En la reciente conferencia anual para desarrolladores F8, Facebook ha revelado por primera vez el uso que va a hacer de la IA para mantener fuera de la plataforma cosas como la incitación al odio, las cuentas falsas, el terrorismo o la violencia gráfica.

TE INTERESA:
Netflix espió los mensajes privados de los usuarios de Facebook según un informe

Según Rosen, vicepresidente de desarrollo de productos de Facebook, los comentarios de Zuckerberg en Washington se deben a que «nos estamos abriendo y siendo transparentes» sobre las iniciativas de IA que han estado en marcha durante años y que, en algunos casos, no darán frutos significativos durante algún tiempo.

En el centro de los esfuerzos, dice Rosen, está la comunidad de Facebook, de 2.200 millones de personas, que presenta decenas de millones de informes por semana sobre contenido potencialmente censurable. Estos informes pasan a formar parte del conjunto de datos más amplio que Facebook utiliza para entrenar a sus sistemas de inteligencia artificial a fin de detectar automáticamente dicho contenido.

La gente puede informar de cualquier cosa a Facebook, y si una revisión manual determina que el contenido no está permitido, se retira. El objetivo con los sistemas de IA, dice Rosen, «es automatizar el proceso para que podamos llegar al contenido más rápido, y llegar a más contenido. Se trata de aprender con ejemplos. Y lo más importante es tener más ejemplos, enseñar al sistema».

Facebook divide en siete categorías el tipo de contenido que utiliza para detectar de forma proactiva: desnudez, la violencia gráfica, el terrorismo, la incitación al odio, el spam, las cuentas falsas y la prevención del suicidio.

Una de las labores más importantes, dada la forma en que se utilizó la plataforma de Facebook durante las elecciones presidenciales de 2016, es tratar de identificar y cerrar cuentas falsas.

Rosen dice que la empresa utiliza la inteligencia artificial para identificar y bloquear millones de cuentas de este tipo todos los días, por lo general en el momento de la creación y antes de que las personas detrás de ellos sean capaces de utilizarlas para hacer cualquier daño. El mes pasado, añade Rosen, la compañía implementó una nueva técnica de inteligencia artificial que ha estado buscando cuentas falsas vinculadas a diversas estafas financieras. Dice que los sistemas de Inteligencia Artificial ya han eliminado más de medio millón de cuentas fraudulentas.

Facebook entrenó a los sistemas de IA para buscar el tipo de signos que indican actividad ilegítima una cuenta que contacte con muchas más cuentas de lo habitual; un gran volumen de actividad que parezca automatizada; y una actividad que no parece originarse en el área geográfica asociada con la cuenta.

Según Rosen, la incitación al odio presenta un desafío particular, que requiere los esfuerzos combinados de IA y el equipo de estándares de la comunidad de la compañía.

Esto se debe a que el contexto es una parte importante para entender si algo es en realidad un discurso de odio o algo con otro matiz. Es por eso que el sistema actual requiere tanto de la IA para señalar automáticamente posibles discursos de odio como la revisión manual. La IA podría identificar algo que cree que es un insulto, pero que en realidad no lo es..

En otras áreas, como la desnudez o la violencia gráfica, el sistema de inteligencia artificial de Facebook depende de la visión por ordenador y de un cierto grado de confianza para determinar si se debe o no eliminar el contenido. Si la confianza es alta, el contenido se eliminará automáticamente; si es baja, el sistema pedirá una revisión manual.

Facebook también está orgulloso de la forma en que sus sistemas de inteligencia artificial han sido capaces de eliminar la mayor parte del contenido terrorista. Afirma que el 99% del contenido de ISIS o Al-Qaeda es eliminado incluso antes de ser reportado por los usuarios.

La compañía también depende en gran medida de la IA para detectar proactivamente a las personas que expresan ideas suicidas y, en algunos casos, alertar sobre estas situaciones.

Por supuesto, aunque Facebook tiene confianza en su tecnología de IA, es consciente de que sus sistemas no son perfectos.  Fuente: Fast Company

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario