Facebook señala que su inteligencia artificial está mejorando detección de contenido no deseado
La gigante estadounidense Facebook informó el miércoles que su software se está volviendo más hábil para espiar contenido prohibido en la red social, trabajando con humanos para eliminar rápidamente videos terroristas y otras amenazas.
«Si bien nos equivocamos por el lado de la libertad de expresión, generalmente señalamos cualquier cosa que pueda resultar un daño real», dijo el presidente ejecutivo de Facebook, Mark Zuckerberg, durante una sesión informativa acerca del último informe de la compañía sobre el rastreo y eliminación de publicaciones que violan sus políticas.
«Esta es una pequeña fracción del contenido en Facebook e Instagram, y eliminamos gran parte antes de que alguien lo vea», aseguró.
La red social ha estado invirtiendo fuertemente en inteligencia artificial (IA) para detectar automáticamente el contenido prohibido, a menudo para poder verlo antes que los usuarios, así como en equipos humanos de supervisores que verifican si el software fue el objetivo.
Facebook tiene más de 35.000 personas trabajando en seguridad, y gasta miles de millones de dólares anualmente en esa misión, según Zuckerberg.
«Nuestros esfuerzos están dando sus frutos», dijo Zuckerberg. «Los sistemas que creamos para abordar estos problemas son más avanzados», subrayó.
Cuando se trata de detectar discursos de odio, el software de Facebook ahora encuentra automáticamente el 80% del contenido eliminado en una mejora masiva respecto de hace dos años, cuando casi todo ese material no se trató hasta que los usuarios lo informaron, según precisó la firma con sede en California.
Somos uno de los principales portales de noticias en Venezuela para temas bancarios, económicos, financieros y de negocios, con más de 20 años en el mercado. Hemos sido y seguiremos siendo pioneros en la creación de contenidos, análisis inéditos e informes especiales. Nos hemos convertido en una fuente de referencia en el país y avanzamos paso a paso en América Latina.