Por qué Elon Musk debería leer el último informe de transparencia de Facebook

Por qué Elon Musk debería leer el último informe de transparencia de Facebook

Hoy, hablemos sobre el último esfuerzo de Fb para hacer que los angeles plataforma sea más comprensible para los extraños, y cómo sus hallazgos informan nuestro debate exact, aparentemente interminable, sobre si también se puede tener una purple social y libertad de expresión.

Comience con una observación: los angeles semana pasada, Pew Analysis informó que los angeles gran mayoría de los estadounidenses: Elon Musk, por ejemplo! — creen que las redes sociales censuran las publicaciones en función de los puntos de vista políticos que expresan. Aquí está Emily A. Vogels:

Subiendo ligeramente de años pasadosaproximadamente las tres cuartas partes de los estadounidenses (77 %) ahora piensan que es muy o algo possible que los sitios de redes sociales censuren intencionalmente los puntos de vista políticos que encuentran objetables, incluido el 41 % que cube que esto es muy possible.

L. a. mayoría de los partidos políticos y las ideologías creen que estos sitios participan en los angeles censura política, pero esta opinión está especialmente extendida entre los republicanos. Alrededor de nueve de cada diez republicanos (92 %), incluidos los partidarios del Partido Republicano, dicen que los sitios de redes sociales censuran intencionalmente los puntos de vista políticos que encuentran objetables, y el 68 % cube que es muy possible que sea así. Entre los republicanos conservadores, esta opinión es casi omnipresente: el 95 % cube que es possible que estos sitios censuren ciertas opiniones políticas y el 76 % cube que es muy possible que esto ocurra.

Una razón por los angeles que encuentro estos números interesantes es que por supuesto las redes sociales están eliminando publicaciones en función de los puntos de vista que expresan. Todas las redes sociales estadounidenses están de acuerdo, por ejemplo, en que los nazis son malos y que no debería permitirse publicar en sus sitios diciendo lo contrario. Este es un punto de vista político, y decirlo no debería ser controvertido.

Por supuesto, esa no es los angeles major queja de los angeles mayoría de las personas que se quejan de los angeles censura en las redes sociales. Los republicanos dicen constantemente que las redes sociales están dirigidas por liberales, tienen políticas liberales y censuran los puntos de vista conservadores para promover su time table política más amplia. (No importa los angeles evidencia de que las redes sociales generalmente han sido una gran ayuda para el momento conservador.)

Entonces, cuando le preguntas a los angeles gente, como lo hizo Pew, si las redes sociales están censurando las publicaciones basadas en los angeles política, no están respondiendo los angeles pregunta que realmente hiciste. En cambio, están respondiendo a los angeles pregunta: en su mayor parte, ¿las personas que dirigen estas empresas parecen compartir su política?? Y eso, creo que explica más o menos el 100 por ciento de los angeles diferencia en cómo respondieron los republicanos y los demócratas.

Pero ya sea en Twitter o en los pasillos del Congreso, esta conversación casi siempre tiene lugar solo en el nivel más abstracto. L. a. gente se quejará de las publicaciones individuales que se eliminan, claro, pero rara vez alguien profundiza en los detalles: sobre qué categorías de publicaciones se eliminan, en qué número y en lo que las propias empresas tienen que decir sobre los errores que cometen.

Eso nos lleva a un documento que tiene un nombre aburrido, pero que está lleno de delicias para aquellos de nosotros que somos entrometidos y disfrutamos leyendo sobre las fallas de los sistemas de inteligencia synthetic: Informe trimestral de aplicación de estándares comunitarios de Facebookel último de los cuales los angeles compañía lanzó hoy como parte de un “informe de transparencia” para los angeles segunda mitad de 2021.

Una cosa importante en los angeles que debe concentrarse, ya sea que sea un usuario promedio preocupado por los angeles censura o que haya comprado recientemente una purple social que prometa permitir casi todo el discurso criminal, es qué tipo de discurso elimina Fb. Muy poco es “político”, al menos en el sentido de “comentario sobre eventos actuales”. En cambio, son publicaciones relacionadas con drogas, armas, autolesiones, sexo y desnudez, junk mail y cuentas falsas, e intimidación y acoso.

Sin duda, algunas de estas categorías están profundamente enredadas en los angeles política: el terrorismo y las “organizaciones peligrosas”, por ejemplo, o lo que califica como discurso de odio. Pero en su mayor parte, este informe narra cosas que Fb elimina porque es bueno para negocio. Una y otra vez, los productos sociales descubren que su uso se cut back cuando incluso un pequeño porcentaje del subject matter que alojan incluye junk mail, desnudos, sangre o personas que se acosan entre sí.

Por lo basic, las empresas sociales hablan de sus reglas en términos de lo que están haciendo “para mantener segura a los angeles comunidad”. Pero el propósito más existencial es mantener a los angeles comunidad regresando al sitio en absoluto. Esto es lo que hace que los angeles nueva ley de medios sociales de Texas, sobre los angeles que escribí ayer, potencialmente tan peligroso para las plataformas: aparentemente requiere que alojen subject matter que alejará a sus usuarios.

Al mismo tiempo, está claro que eliminar demasiadas publicaciones además aleja a los angeles gente. En 2020, informé que Mark Zuckerberg les dijo a los empleados que los angeles censura generation los angeles queja número uno de los angeles base de usuarios de Fb.

Un enfoque más sensato para common las plataformas comenzaría con los angeles suposición de que se debe permitir que las empresas privadas establezcan y hagan cumplir las pautas de los angeles comunidad, aunque solo sea porque sus empresas probablemente no serían viables sin ellas. A partir de ahí, podemos exigir a las plataformas que nos digan cómo son moderadores, bajo los angeles thought de que los angeles luz del sol es el mejor desinfectante. Y cuanto más entendamos sobre las decisiones que toman las plataformas, más inteligente será los angeles conversación que podamos tener sobre los errores que estamos dispuestos a tolerar.

Como el erudito de moderación de contenido Evelyn Douek ha escrito: “L. a. moderación del contenido siempre implicará errores, por lo que las preguntas pertinentes son qué tasas de error son razonables y qué tipos de errores se deben preferir”.

El informe de Fb de hoy destaca dos tipos principales de errores: los cometidos por seres humanos y los cometidos por sistemas de inteligencia synthetic.

Comience con los humanos. Por razones que el informe no revela, entre el último trimestre de 2021 y el primer trimestre de este, sus moderadores humanos sufrieron “una disminución temporal en los angeles precisión de los angeles aplicación” en publicaciones relacionadas con las drogas. Como resultado, los angeles cantidad de personas que solicitaron apelaciones aumentó de 80 000 a 104 000, y Fb finalmente restauró 149 000 publicaciones que se habían eliminado indebidamente.

Sin embargo, podría decirse que los humanos tuvieron un mejor trimestre que los sistemas automatizados de Fb. Entre los problemas con los angeles IA esta vez:

  • Fb restauró 345.600 publicaciones que se habían eliminado indebidamente por infringir políticas relacionadas con las autolesiones, frente a las 95.300 del trimestre anterior, debido a “un problema que provocó que nuestra tecnología de comparación de medios activara contenido que no infringía”.
  • L. a. empresa restauró 414.000 publicaciones que habían sido eliminadas indebidamente por violar políticas relacionadas con el terrorismo y 232.000 relacionadas con grupos de odio organizados, aparentemente por el mismo problema.
  • L. a. cantidad de publicaciones que eliminó indebidamente por violar políticas relacionadas con contenido violento y gráfico el último trimestre se duplicó con creces, a 12.800, porque los sistemas automatizados eliminaron incorrectamente fotos y movies de los angeles invasión rusa de Ucrania.

Por supuesto, también hubo buena evidencia de que los sistemas automatizados están mejorando. En explicit, Fb tomó medidas en 21,7 millones de publicaciones que violaban las políticas relacionadas con los angeles violencia y los angeles incitación, frente a los 12,4 millones del trimestre anterior, “debido a los angeles mejora y expansión de nuestra tecnología de detección proactiva”. Eso plantea, eh, más de unas pocas preguntas sobre lo que escapó a los angeles detección en trimestres anteriores.

Aún así, Fb comparte mucho más sobre sus errores que otras plataformas; YouTube, por ejemplo, comparte información sobre videos que se eliminaron por errorpero no por categoría y sin ninguna información sobre los errores que se cometieron.

Y, sin embargo, aún hay mucho más que nos beneficiaría saber: de Fb, YouTube y todo lo demás. ¿Qué tal ver todos estos datos desglosados ​​por país, por ejemplo? ¿Qué tal ver información sobre categorías más explícitamente “políticas”, como publicaciones eliminadas por violar políticas relacionadas con información errónea sobre los angeles salud? ¿Y qué tal verlo todo mensualmente, en lugar de trimestralmente?

A decir verdad, no sé si algo de eso haría mucho para cambiar el debate exact sobre los angeles libertad de expresión. Los partidarios simplemente tienen mucho que ganar políticamente gritando sin cesar “censura” cada vez que cualquier decisión relacionada con los angeles moderación del contenido va en su contra.

Pero deseo que los legisladores al menos pasen una tarde enredándose en los detalles de un informe como el de Fb, que expone los desafíos comerciales y técnicos de albergar las opiniones de tantas personas. Subraya los angeles inevitabilidad de los errores, algunos de ellos bastante importantes. Y plantea preguntas que los legisladores podrían responder a través de regulaciones que en realidad podrían resistir el escrutinio de los angeles Primera Enmienda, como qué derechos de apelación debería tener una personality si su publicación o cuenta se eliminan por error.

También hay, creo, una lección importante para Fb en todos esos datos. Cada tres meses, según sus propios datos, millones de sus usuarios ven sus publicaciones eliminadas por error. No es de extrañar que, con el tiempo, se haya convertido en los angeles major queja entre los angeles base de usuarios. Y aunque los errores son inevitables, también es fácil imaginar que Fb trate mejor a estos clientes: explicando el error en detalle, disculpándose por él, invitando a los usuarios a enviar comentarios sobre el proceso de apelación. Y luego mejorar ese proceso.

El statu quo, en el que esos usuarios pueden ver una breve respuesta automática que no responde a ninguna de sus preguntas, es un mundo en el que el apoyo a los angeles purple social, y a los angeles moderación de contenido en basic, sigue disminuyendo. Aunque solo sea para preservar sus negocios, ha llegado el momento de que las plataformas lo defiendan.