Nueva Zelanda | Redes Sociales | Facebook | Mark Zuckerberg | Twitter | Instagram | Google | YouTube

Masacre de Nueva Zelanda: ¿Por qué Facebook no pudo evitar la tansmisión en vivo?

Las redes sociales luchan para evitar la difusión del ataque en el que murieron al menos 49 personas.

Brenton Tarrant, de 28 años, el joven australiano señalado como autor material de las masacres en dos mezquitas de Christchurch, Nueva Zelanda, decidió transmitir en vivo su raid de odio y xenofobia a través de Facebook. La emisión duró 17 minutos y no tuvo ningún tipo de filtro que bloqueara su difusión a través de la red social de Mark Zuckerberg.

Las imágenes del horror muestran al terrorista portando varias armas, incluyendo una escopeta y un rifle semiautomático, antes de que ingresara a la primera mezquita para comenzar con la masacre.

La Policía de Nueva Zelanda fue la que alertó de inmediato a la red social sobre el contenido de la transmisión en vivo poco después de que comenzara. Tras el aviso, no solo fue eliminado el video, sino también las cuentas del terrorista Brenton Tarrant de Facebook e Instagram. Lo mismo sucedió en YouTube y Twitter, por citar otras redes sociales.

También puedes leer: Nueva Zelanda: al menos 49 muertos en un ataque contra dos mezquitas

"También estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores tan pronto como estemos conscientes. Continuaremos trabajando directamente con la Policía de Nueva Zelanda a medida que su respuesta e investigación continúen ", señaló la jefa de Facebook en Australia y Nueva Zelanda, Mia Garlick, en un comunicado oficial.

Por su parte, Twitter dijo que suspendió una cuenta relacionada con el tiroteo y está trabajando para eliminar el video de su plataforma, de acuerdo con declaraciones de un portavoz de la compañía.

YouTube, que es propiedad de Google, aseguró que elimina de su plataforma de videos “contenido impactante, violento y gráfico” tan pronto como se le informa.

A diario son analizados fotos, videos, perfiles y grupos que son denunciados por otros usuarios o por un algoritmo -basado en inteligencia artificial- y pasan los filtros de Facebook. Posteriormente, un equipo de personas compuesto por 20.000 moderadores son los encargados de garantizar que se cumplan las normas de seguridad. Unos 7.500 de ellos son revisores de contenidos que evalúan las 24 horas todas las publicaciones reportadas por los usuarios en más de 50 idiomas.

Sin embargo, la masacre en las mezquitas de Christchurch superó todas las barreras. Y no es el primer episodio que se difunde sin ser detectado por los filtros de Facebook.

A la vista está que los controles impuestos por las redes sociales, al menos en la actualidad, apenas alcanzan para frenar la difusión de imágenes o videos que fomenten la violencia, contengan sexo explícito o mensajes con contenidos abusivos. El desafío será controlar estas emisiones en directo en Facebook y YouTube, como así también en el resto las plataformas que tienen disponible esta función.

Dejá tu comentario