¿Por qué Facebook y Twitter no pudieron evitar que el video del tiroteo en Buffalo se volviera viral?

¿Por qué Facebook y Twitter no pudieron evitar que el video del tiroteo en Buffalo se volviera viral?

Después del tiroteo en l. a. mezquita de Christchurch, Nueva Zelanda, en 2019, Fb fue muy criticado por permitir que el tirador transmitiera en vivo sus asesinatos para 17 minutos ininterrumpido. El tiroteo masivo hecho para Web por motivos raciales del sábado en Buffalo, Nueva York, fue diferente.

Esta vez, el tirador compartió sus espantosos actos en Twitch, una aplicación de transmisión de video en vivo fashionable entre los jugadores, donde se cerró mucho más rápido. menos de dos minutos después de que comenzara la violencia, según l. a. empresa. Cuando Twitch cortó l. a. transmisión, supuestamente había solo 22 vistas.

Eso no impidió que l. a. gente difundiera grabaciones de pantalla de l. a. transmisión en vivo de Twitch, y el escritos del tirador – en todo Web, donde acumularon millones de visitas, algunas de las cuales llegaron a través de enlaces compartidos ampliamente en Fb y Twitter.

“Es una tragedia porque solo se necesita una copia del video para que esta cosa viva para siempre en línea y se multiplique sin cesar”, dijo Emerson Brooking, miembro major residente del grupo de expertos del Atlantic Council que estudia las redes sociales.

Muestra que, si bien las principales plataformas de redes sociales como Fb y Twitter, desde Christchurch, han mejorado en l. a. desaceleración de l. a. propagación de representaciones espantosas de violencia masiva, todavía no pueden detenerla por completo. Twitch pudo cortar rápidamente l. a. transmisión de video en tiempo actual del tirador porque es una aplicación diseñada para compartir un tipo específico de contenido: movies de juegos en vivo en primera personality. Fb, Twitter y YouTube tienen un grupo mucho más amplio de usuarios, publican una gama mucho más amplia de publicaciones, que se comparten a través de algoritmos diseñados para promover l. a. viralidad. Para que Fb y Twitter detuvieran l. a. propagación de todos los rastros de este video, significaría que estas empresas tendrían que modificar fundamentalmente l. a. forma en que se comparte l. a. información en sus aplicaciones.

L. a. difusión desenfrenada de movies de asesinatos en Web es un problema importante a resolver. Para las víctimas y familiares de las víctimas, estos movies privan a las personas de su dignidad en sus últimos momentos. Pero también incentivan el comportamiento de búsqueda de fama de los posibles asesinos en masa, que planean una violencia terrible que apunta a l. a. viralidad de las redes sociales que promueve sus ideologías de odio.

A lo largo de los años, las principales plataformas de redes sociales han mejorado mucho en ralentizar y restringir l. a. difusión de este tipo de movies. Pero no han podido detenerlo por completo, y probablemente nunca lo harán.

El esfuerzo de estas empresas hasta ahora se ha centrado en identificar mejor los movies violentos y luego bloquear a los usuarios para que no compartan ese mismo video o versiones editadas. En el caso del tiroteo en Buffalo, YouTube dijo que eliminó al menos 400 versiones diferentes del video del tirador que l. a. gente intentó subir desde el sábado por l. a. tarde. Fb está bloqueando de manera an identical a las personas para que no carguen diferentes versiones del video, pero no reveló cuántas. Twitter también dijo que está eliminando instancias del video.

Estas empresas también se ayudan mutuamente a identificar y bloquear o eliminar este tipo de contenido comparando notas. Ahora comparten “hashes”, o huellas dactilares digitales de una imagen o video, a través del Foro Global de Internet para Contrarrestar el Terrorismo, o GIFCT, un consorcio de l. a. industria fundado en 2017. Cuando estas empresas intercambian hashes, les da l. a. capacidad de encontrar y eliminar movies violentos. Es l. a. misma forma en que plataformas como YouTube buscan movies que violan los derechos de autor.

Después del tiroteo de Christchurch en 2019, GIFCT creó un nuevo sistema de alerta de manos a l. a. obra, llamado “protocolo de incidentes de contenido”, para comenzar a compartir hashes en el caso de una situación de emergencia como un tiroteo masivo. En el caso del tiroteo de Buffalo, se activó un protocolo de incidentes de contenido a las 4:52 p. m. ET del sábado, unas dos horas y media después de que comenzara el tiroteo. Y a medida que las personas que querían difundir l. a. distribución de los movies intentaron alterar los clips para frustrar los rastreadores de hash, por ejemplo, agregando pancartas o ampliando partes de los clips, las empresas del consorcio intentaron responder creando nuevos hash. que podría marcar los movies alterados.

Pero los movies hash solo llegan hasta cierto punto. Una de las formas clave en que el video del tirador de Buffalo se difundió en las principales redes sociales no fue que las personas publicaran el video directamente, sino que lo vincularon a otros sitios internet.

En un ejemplo, un enlace al video del tirador alojado en Streamable, un sitio de movies menos conocido, se compartió cientos de veces en Fb y Twitter en las horas posteriores al tiroteo. Ese enlace obtuvo más de 43,000 interacciones, incluidos me gusta y acciones, en Fb, y fue visto más de 3 millones de veces antes de que Streamable lo eliminara. según el New York Times.

Un portavoz de l. a. empresa matriz de Streamable, Hopin, no respondió a las repetidas preguntas de Recode sobre por qué l. a. plataforma no eliminó antes el video del tirador. L. a. empresa envió un comunicado diciendo que este tipo de movies violan las pautas de l. a. comunidad y los términos de servicio de l. a. empresa, y que l. a. empresa trabaja “diligentemente para eliminarlos rápidamente, así como para cancelar las cuentas de quienes los suben”. Streamable no es miembro de GIFCT.

en un captura de pantalla ampliamente difundida, un usuario mostró que había denunciado una publicación con el enlace Streamable y una imagen del tiroteo en Fb poco después de que se publicara, solo para recibir una respuesta de Fb que decía que l. a. publicación no violaba sus reglas. Un portavoz de Meta confirmó a Recode que las publicaciones con el enlace Streamable violaron sus políticas. Meta dijo que l. a. respuesta al usuario que informó el enlace fue un error y que l. a. empresa está investigando por qué.

En última instancia, debido a cómo están diseñadas todas estas plataformas, este es un juego de whack-a-mole. Fb, Twitter y YouTube tienen miles de millones de usuarios, y dentro de esos miles de millones, siempre habrá un porcentaje de usuarios que encuentren lagunas para explotar estos sistemas. Varios investigadores de redes sociales han sugerido que las principales plataformas podrían hacer más al examinar mejor los sitios internet marginales como 4chan y 8chan, donde se originaban los enlaces, para identificarlos y bloquearlos antes. Los investigadores también han pedido que estas plataformas inviertan más en sus sistemas para recibir informes de usuarios.

Mientras tanto, algunos legisladores culparon a las empresas de redes sociales por permitir que el video se publicara en primer lugar.

“[T]aquí hay un frenesí de alimentación en las plataformas de redes sociales donde el odio encona más odio, eso tiene que parar”, dijo l. a. gobernadora de Nueva York Kathy Hochul en un conferencia de prensa el domingo. “Estos medios deben estar más atentos al monitorear el contenido de las redes sociales, y ciertamente el hecho de que esto pueda transmitirse en vivo en las plataformas de las redes sociales y no eliminarse en un segundo me cube que existe una responsabilidad”.

Atrapar y bloquear contenido que rápidamente aún no ha resultado factible. Nuevamente, Twitch tardó dos minutos en eliminar l. a. transmisión en vivo, y eso equivale a uno de los tiempos de respuesta más rápidos que hemos visto hasta ahora en una plataforma de redes sociales que permite a las personas publicar en tiempo actual. Pero esos dos minutos fueron tiempo más que suficiente para permitir que los enlaces al video se volvieran virales en plataformas más grandes como Fb y Twitter. L. a. pregunta, entonces, es menos sobre qué tan rápido se pueden eliminar estos movies y más sobre si hay una manera de evitar l. a. vida después de l. a. muerte que pueden ganar en las principales redes sociales.

Ahí es donde el diseño elementary de estas plataformas choca con l. a. realidad. Son máquinas diseñadas para l. a. participación masiva y maduras para l. a. explotación. Si eso cambiará y cuándo, depende de si estas empresas están dispuestas a tirar una llave en esa máquina. Hasta ahora, eso no parece possible.

Peter Kafka contribuyó a este artículo.