Redes sociales buscan combatir el terrorismo

Asesinatos transmitidos en vivo, contenidos promovidos por grupos terroristas y mensajes racistas. Este es parte del panorama al cual se enfrentan las redes sociales y que necesitan combatir sin escatimar esfuerzos. Pero ¿qué deben hacer? ¿Enfocarse en los sistemas automatizados o en equipos humanos dedicados a vigilar?

Precisamente, luego de una ola de ataques terroristas en Europa y un aumento de la propagación de mensajes de odio, las compañías han anunciado varias medidas. Inteligencia artificial y coaliciones son algunas de ellas. Sin embargo, los expertos señalan que para lograr resultados debe haber una combinación entre el uso de la tecnología y los procesos de educación a los usuarios. “Todo se debe complementar con estrategias que hagan que la gente tenga una convivencia digital más sana. También deben crear herramientas y plataformas para denunciar rápidamente”, afirma Ricardo Fraile, estratega digital.

El experto en redes sociales Santiago Villegas advierte que “las máquinas no podrán superar nunca el papel de la educación”, y agrega que “la responsabilidad está en crear coaliciones para concientizar al público de las consecuencias”.

Los analistas coinciden en que es difícil ejercer un control sobre los millones de contenidos que se publican a diario (solo Facebook cuenta con 2.000 millones de usuarios). Estas son algunas de las medidas anunciadas recientemente:

Inteligencia artificial

“No hay lugar en Facebook para el terrorismo”. Este es el mensaje que la compañía de Mark Zuckerberg quiso enviar al mundo el pasado mes de junio, cuando reveló sus estrategias.

Entre las medidas anunciadas está el uso de sistemas de inteligencia artificial que se encargan, entre otras cosas, de hacer comparación de imágenes para identificar si una foto o un video coincide con un contenido de terrorismo publicado anteriormente, o utilizar algoritmos para detectar grupos terroristas analizando señales como la cantidad de cuentas que un usuario sigue y han sido inhabilitadas.

Google también anunció que ha utilizado modelos de análisis de video para encontrar más del 50 por ciento del contenido relacionado con terrorismo que se ha eliminado en los últimos seis meses en YouTube. Además, la compañía informó que dedicarán más recursos de ingeniería para aplicar técnicas de aprendizaje automático, o ‘machine learning’, para formar nuevos “clasificadores de contenido”.

“Es un gran desafío: un video de un ataque terrorista puede ser un reportaje informativo si es transmitido por la BBC o una glorificación de la violencia si se carga en un contexto diferente por un usuario diferente”, señaló el gigante tecnológico en un comunicado.

El ingeniero de sistemas Wilmar Vallejo, docente del programa de investigación criminal de la Universidad Manuela Beltrán, explica que los sistemas de inteligencia artificial funcionan por medio de procesos de indexación y bases de datos. “A todos los archivos digitales se les pueden calcular sus huellas digitales (o ‘hashes’) con un algoritmo. Si tengo una base de datos de imágenes con contenido, por ejemplo, de pornografía infantil, se generará una alerta cuando se intente subir”, afirma.

Las compañías poseen equipos especializados dedicados a supervisar los contenidos las 24 horas del día. Facebook cuenta además con un grupo de 150 especialistas en antiterrorismo y también comparte datos con Instagram y el servicio de mensajería WhatsApp, pertenecientes a la compañía. Google creó el programa Trusted Flagger, compuesto por organizaciones que vigilan los contenidos de YouTube. Además, diseñó la iniciativa ‘Creadores para el cambio’, el cual promueve las voces de personajes que envían mensajes contra el odio y la radicalización.

Asociaciones

Facebook, Microsoft, Twitter y YouTube anunciaron la creación de una coalición, denominada Global Internet Forum to Counter Terrorism, para combatir el terrorismo de manera conjunta por medio de la promoción de investigaciones y la colaboración con organizaciones e instituciones. La idea es que esta coalición tenga en cuenta iniciativas como el Foro Europeo de Internet o las bases de datos de ‘hashes’, que se comparten entre sí desde el pasado mes de diciembre.

El objetivo es que se logre intercambiar experiencias y las técnicas de detección y clasificación de contenidos sensibles.

Fuente: Tecnósfera

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *