INTERNET

TRANSMISIÓN DE MASACRE EN VIVO

Cuando la tecnología se usa de la peor manera (y nadie lo puede evitar)

En Nueva Zelanda se vivió uno de los hechos más violentos de los últimos tiempos. Un terrorista, supremacista blanco entró a una mezquita y mató a tiros a 50 musulmanes, mientras transmitía en vivo por Facebook Live. Las herramientas de Facebook fueron muy cuestionadas, así como la incapacidad de la plataforma de frenado la transmisión ¿Qué rol deberían cumplir las redes sociales cuando suceden estas tragedias? ¿Se puede controlar el uso de la tecnología y sus fines? ¿Cómo?

Hace un tiempo que Facebook no está en una buena racha. Entre la filtración de información de los usuarios a las marcas con Cambridge Analytics, la influencia de la red en las elecciones de Estados Unidos, la reciente caída de la plataforma y el cuestionamiento por el uso de la red por grupos extremistas, la famosa red social está en jaque mundial. 

Ahora, aunque Facebook no sea responsable de la transmisión en vivo realizada por el asesino Brenton Tarrant, el video duró 17 minutos y nadie ni nada fue capaz de detenerlo a pesar de que la Policía de Nueva Zelanda fue la que alertó de inmediato a la red social sobre el contenido de la transmisión en vivo poco después de que comenzara. Tras la finalización del video, no solo fue eliminado el video, sino también las cuentas del terrorista Brenton Tarrant de Facebook e Instagram. Lo mismo sucedió en YouTube y Twitter, por citar otras redes sociales. Pero, fue demasiado tarde…

¿Deberían estos grupos poder utilizar la plataforma?¿Es posible controlar una transmisión en vivo?¿Hasta qué punto la censura es posible y cómo se discierne entre el buen y el mal uso de la tecnología?

Todas estas preguntas acecharon a la red social en estos días y desde el New Yorker hablaron con una experta: Sarah T. Roberts, profesora de estudios de información en la Universidad de California en Los Ángeles, quien, durante los últimos ocho años, se ha convertido en una autoridad en las estrategias de moderación de contenido empleadas por las empresas de tecnología. 

Roberts explicó que los sistemas de aprendizaje automático podrían algún día identificar corrientes violentas y de odio a medida que sean transmitidos, pero ella misma se cuestiona si deberíamos dejar o no esta decisión en manos de un algoritmo. El tema es que no hay posibilidad física de que existan suficientes moderadores humanos capaces de monitorear cada uno de los videos en vivo que se transmiten en las diversas redes sociales. 

“Las plataformas podrían hacer que el acceso a la tecnología sea un privilegio para los usuarios de confianza, por ejemplo.” Explica el New Yorker. “Pero tales medidas también impedirían la transmisión de video que se considera socialmente útil: transmisiones de protestas políticas, por ejemplo, o de violencia policial. Durante un tiempo, Facebook Live fue visto ampliamente como un conducto útil para un cambio social positivo. Al final, puede ser imposible separar lo bueno de lo malo”, agrega.

Por su parte, luego del ataque, Facebook de Nueva Zelanda informó la remoción de 1,5 millones de videos en todo el mundo sobre el ataque a las mezquitas de Christchurch en sólo 24 horas.

"En las primeras 24 horas, hemos removido 1,5 millones de videos del ataque en todo el mundo, de los cuales 1,2 millones fueron bloqueados mientras eran descargados", dijo la responsable de la empresa, Mia Garlick, en una serie de tuit, tras la emisión en director de la matanza de 50 musulmanes.

"También estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores tan pronto como estemos conscientes. Continuaremos trabajando directamente con la Policía de Nueva Zelanda a medida que su respuesta e investigación continúen ", señaló.

En definitiva, las redes sociales cuentan con un equipo enorme de moderadores que vigilan las 24 horas del día los grupos, fotos, videos y contenidos que se transmiten por las mismas redes para evitar que se incumplan las reglas de convivencia impuestas para las comunidades digitales. 

Pero la herramienta del vivo todavía es una incógnita y un desafío para el nuevo paradigma, y por ahora resulta un callejón sin salida para las funciones moderadoras. Facebook se está enterando que sus herramientas pueden ser usadas para hacer daño y transmitir mensajes de odio que fomentan la xenofobia entre otras cosas, y lo peor de todo, es que se está dando cuenta de que sin querer creó un monstruo, que (todavía) no se puede controlar. 

Dejá tu comentario