Diez personas fueron asesinadas este fin de semana en un ataque racista en un supermercado de Buffalo, Nueva York. El tirador supremacista blanco de dieciocho años transmitió en vivo su ataque en Twitch, l. a. plataforma de transmisión de videojuegos propiedad de Amazon. A pesar de que Twitch eliminó el video dos minutos después de que comenzara l. a. violencia, todavía technology demasiado tarde; ahora, imágenes espantosas del ataque terrorista circulan abiertamente en plataformas como Fb y Twitter, incluso después de que las compañías prometieron eliminar el video.
En Fb, se notificó a algunos usuarios que marcaron el video que el contenido no violó sus reglas. Los angeles compañía le dijo a TechCrunch que esto fue un error y agregó que tiene equipos trabajando las 24 horas para eliminar movies del tiroteo, así como enlaces al video alojado en otros sitios. Fb dijo que también está eliminando copias de l. a. diatriba racista del tirador y el contenido que lo elogia.
Pero cuando buscamos un término tan easy como “imágenes de disparos a búfalos” en Fb, uno de los primeros resultados mostró una grabación de pantalla de 54 segundos de las imágenes del terrorista. TechCrunch encontró el video una hora después de que se subió y lo informó de inmediato. El video no fue retirado hasta tres horas después de su publicación, cuando ya había sido visto más de mil veces.
En teoría, esto no debería suceder. Un representante de Fb le dijo a TechCrunch que agregó varias versiones del video, así como los escritos racistas del tirador, a una base de datos de contenido violatorio, lo que ayuda a l. a. plataforma a identificar, eliminar y bloquear dicho contenido. Le preguntamos a Fb sobre este incidente en explicit, pero no proporcionaron detalles adicionales.
“Vamos a seguir aprendiendo, refinando nuestros procesos, para asegurarnos de que podemos detectar y eliminar contenido infractor más rápidamente en el futuro”, dijo el vicepresidente de integridad de Fb, Man Rosen, en respuesta a una pregunta sobre por qué l. a. empresa tuvo problemas para eliminar copias del video en una llamada no relacionada el martes.
Las reposiciones de l. a. transmisión del tirador también fueron fáciles de encontrar en Twitter. De hecho, cuando escribimos “video de buffalo” en l. a. barra de búsqueda, Twitter sugirió búsquedas como “gráfico de video completo de video de buffalo”, “video filtrado de buffalo” y “gráfico de video de buffalo”.

Créditos de imagen: Twitter, captura de pantalla de TechCrunch
Encontramos varios movies del ataque que han estado circulando en Twitter durante más de dos días. Uno de esos movies tuvo más de 261,000 visitas cuando lo revisamos el martes por l. a. tarde.
En abril, Twitter promulgó una política que prohíbe a los perpetradores individuales de ataques violentos de Twitter. Según esta política, l. a. plataforma también se reserva el derecho de eliminar multimedia relacionada con los ataques, así como el lenguaje de los “manifiestos” terroristas.
“Estamos eliminando movies y medios relacionados con el incidente. Además, podemos eliminar los Tweets que difunden el manifiesto u otro contenido producido por los perpetradores”, dijo un portavoz de Twitter a TechCrunch. Los angeles empresa calificó este contenido “de odio y discriminatorio” como “perjudicial para l. a. sociedad”.
Twitter también afirma que algunos usuarios intentan eludir los derribos cargando contenido alterado o manipulado relacionado con el ataque.
Por el contrario, las imágenes de video de l. a. tragedia del fin de semana fueron relativamente difíciles de encontrar en YouTube. Los términos de búsqueda básicos para el video del tiroteo de Buffalo en su mayoría generaron cobertura de los principales medios de comunicación. Con los mismos términos de búsqueda que usamos en Twitter y Fb, pudimos identificar un puñado de movies de YouTube con miniaturas del tiroteo que en realidad eran contenido no relacionado una vez que se hizo clic en ellos. En TikTok, TechCrunch identificó algunas publicaciones que dirigían a los usuarios a sitios internet donde podían ver el video, pero no encontró el metraje actual en l. a. aplicación en nuestras búsquedas.
Twitch, Twitter y Fb han declarado que están trabajando con el Foro World de Web para Contrarrestar el Terrorismo para limitar l. a. difusión del video. Twitch y Discord también han confirmado que están trabajando con las autoridades gubernamentales que están investigando l. a. situación. El tirador describió en detalle sus planes para el tiroteo en un servidor privado de Discord antes del ataque.
Según los documentos revisados por TechCrunch, el tirador de Buffalo decidió transmitir su ataque en Twitch porque un tiroteo antisemita de 2019 en l. a. sinagoga de Halle permaneció en vivo en Twitch durante más de treinta minutos antes de que fuera derribado. El tirador consideró transmitir a Fb, pero optó por no usar l. a. plataforma porque pensó que los usuarios debían iniciar sesión para ver transmisiones en vivo.
Fb también ha albergado sin darse cuenta tiroteos masivos que evadieron l. a. detección algorítmica. El mismo año del tiroteo en l. a. sinagoga de Halle, 50 personas murieron en un ataque islamófobo contra dos mezquitas en Christchurch, Nueva Zelanda, que se transmitió durante 17 minutos. Al menos tres perpetradores de tiroteos masivos, incluido el sospechoso en Buffalo, han citado l. a. masacre de Christchurch transmitida en vivo como fuente de inspiración para sus ataques racistas.
Fb notó el día después del tiroteo en Christchurch que había eliminado 1,5 millones de movies del ataque, 1,2 millones de los cuales fueron bloqueados al subirlos. Por supuesto, esto planteó l. a. pregunta de por qué Fb no pudo detectar de inmediato 300,000 de esos movies, lo que marca una tasa de falla del 20%.
A juzgar por lo fácil que fue localizar movies del tiroteo de Buffalo en Fb, parece que l. a. plataforma todavía tiene un largo camino por recorrer.