Facebook tiene un problema de supremacía de superusuario

Ii quieres entender por qué Facebook es a menudo un pozo negro de odio y desinformación, un buen lugar para empezar es con usuarios como John, Michelle y Calvin.

John, un devoto de las mayúsculas del norte del estado de Nueva York, llama «PIGLOSI» a la presidenta de la Cámara de Representantes, Nancy Pelosi, y utiliza el término negro, y dice que la respuesta correcta a los demócratas con los que no están de acuerdo es «DISPARARLOS a todos». Michelle despotrica contra la «plandemia». Calvin utiliza gay como un insulto y declara que los barrios negros son siempre «SHITHOLES». Es casi seguro que te has encontrado con gente como ésta en Internet. Sin embargo, lo que quizá no sepas es lo poderosos que son.

Durante más de un año, hemos estado analizando un nuevo y enorme conjunto de datos que hemos diseñado para estudiar el comportamiento del público en las 500 páginas de Facebook de Estados Unidos que obtienen la mayor participación de los usuarios. Nuestra investigación, parte de la cual se someterá a revisión por pares a finales de este año, tiene como objetivo comprender mejor a las personas que difunden el odio y la desinformación en Facebook. Esperábamos saber cómo utilizan la plataforma y, sobre todo, cómo responde Facebook. Basándonos en informes anteriores, esperábamos que fuera feo. Lo que encontramos fue mucho peor.

El aspecto más alarmante de nuestros hallazgos es que personas como John, Michelle y Calvin no son simplemente trolls marginales, o una distracción de lo que realmente importa en la plataforma. Forman parte de una élite de usuarios de la que no se ha informado previamente y que produce más likes, shares, reacciones, comentarios y publicaciones que el 99% de los usuarios de Facebook en Estados Unidos.

Son superusuarios. Y como el algoritmo de Facebook premia la participación, estos superusuarios tienen una enorme influencia sobre las publicaciones que se ven primero en los feeds de otros usuarios y las que no se ven nunca. Lo más sorprendente es lo desagradable que es la mayoría de estos usuarios hiperinfluyentes. Resulta que las personas más abusivas de Facebook son las que tienen más poder para dar forma a lo que es Facebook.


Fa actividad de acebook es mucho más concentrada de lo que la mayoría cree. A la empresa le gusta destacar la amplitud de su plataforma: casi 2.900 millones de usuarios activos mensuales, que visitan millones de páginas y grupos públicos. Esto es engañoso. Nuestro análisis muestra que la actividad pública se centra en un conjunto mucho más estrecho de páginas y grupos, frecuentados por una porción mucho más delgada de usuarios.

Las páginas más importantes, como las de Ben Shapiro, Fox News y Occupy Democrats, generaron decenas de millones de interacciones al mes en nuestros datos, mientras que todas las páginas de EE.UU. clasificadas en el puesto 300 o inferior en términos de compromiso recibieron menos de 1 millón de interacciones cada una. (Las páginas con más engagement incluían ejemplos de la extrema derecha y de la extrema izquierda, pero las páginas de derechas dominaban entre las páginas abiertamente políticas mejor clasificadas). Este patrón de ganadores refleja lo que se observa en muchos otros ámbitos, como el dominio de unos pocos libros más vendidos o el modo en que unas pocas docenas de grandes empresas de primer orden dominan la capitalización total del mercado del S&P 500. En Facebook, sin embargo, la concentración de la atención en unas pocas páginas ultrapopulares no ha sido muy conocida.

Hemos analizado dos meses de actividad pública de las 500 páginas gestionadas en Estados Unidos con mayor compromiso medio en el verano de 2020. Las páginas principales se inclinan hacia la política, pero la lista incluye páginas sobre una amplia mezcla de otros temas también: animales, motivación diaria, contenido devocional cristiano, cocina y artesanía y, por supuesto, noticias, deportes y entretenimiento. La participación de los usuarios cayó de forma tan pronunciada en las 500 primeras páginas, y de forma tan regular desde el punto de vista estadístico, que calculamos que estas 500 páginas representan aproximadamente la mitad de la participación de las páginas públicas de Estados Unidos en la plataforma. (Realizamos nuestra investigación con una subvención de la organización sin ánimo de lucro Hopewell Fund, que forma parte de una red de organizaciones que distribuyen donaciones anónimas a causas progresistas. Los funcionarios de Hopewell no participaron de ninguna manera en nuestra investigación, ni en la evaluación o aprobación de nuestras conclusiones. La subvención que recibimos no está vinculada a ninguna causa política, sino que forma parte de un programa centrado en apoyar a los investigadores que estudian la desinformación y la responsabilidad en la web social).

Los grupos públicos se diferencian de las páginas en varios aspectos. Las páginas suelen representar a organizaciones o personajes públicos, y sólo los administradores pueden publicar contenidos en ellas, mientras que los grupos son como los foros de Internet de la vieja escuela en los que cualquier usuario puede publicar. Por ello, los grupos tienden a tener un volumen mucho mayor de publicaciones, más comentarios y menos «me gusta» y «compartidos», pero también siguen un patrón de «todos ganan», aunque menos extremo.

Dado que el número de publicaciones de los grupos es mucho mayor, analizamos los grupos más intensamente durante dos semanas dentro de ese mismode dos meses en 2020, examinando decenas de millones de los puestos de mayor interacción de más de 41.000 de los grupos públicos estadounidenses de mayor afiliación.

En general, observamos 52 millones de usuarios activos en estas páginas y grupos públicos de EE.UU., menos de una cuarta parte de la base de usuarios que Facebook afirma tener en el país. Entre esta minoría de usuarios públicamente activos, el 1% de las cuentas más importantes fue responsable del 35% de todas las interacciones observadas; el 3% más importante fue responsable del 52%. Al parecer, muchos usuarios rara vez interactúan con grupos o páginas públicas, si es que lo hacen.

Por muy sesgadas que estén estas cifras, siguen subestimando el dominio de los superusuarios. Los usuarios de Facebook siguen una escala consistente de compromiso. Los usuarios con poca actividad pública hacen mayoritariamente una sola cosa: les gusta una o dos publicaciones de una de las páginas más populares. A medida que la actividad aumenta, los usuarios realizan más tipos de participación pública -compartiendo, reaccionando y comentando- y se extienden más allá de las páginas y grupos más populares. Por lo tanto, cuando observamos páginas y grupos cada vez más pequeños, descubrimos que cada vez más su participación proviene de los usuarios más ávidos. La cobertura completa de las páginas más pequeñas y de los grupos más pequeños que se nos escapan nos daría una imagen aún más cruda de la supremacía de los superusuarios.

El dominio de los superusuarios tiene enormes implicaciones más allá de nuestra preocupación inicial por los usuarios abusivos. Tal vez las revelaciones más importantes que vinieron del ex ingeniero de datos de Facebook Frances Haugen de documentos internos se referían al funcionamiento interno del algoritmo clave de Facebook, llamado «Interacción Social Significativa», o MSI. Facebook introdujo MSI en 2018, ya que estaba enfrentando la disminución del compromiso en toda su plataforma, y Zuckerberg aclamó el cambio como una forma de ayudar a «conectar con la gente que nos importa.» Según se informa, Facebook vinculó las bonificaciones de los empleados a la medida.

Los fundamentos de la ICM son sencillos: Clasifica las publicaciones asignando puntos por diferentes interacciones públicas. Las publicaciones con mucha MSI tienden a terminar en la parte superior de las noticias de los usuarios, y las publicaciones con poca puntuación, por lo general, nunca se ven. Según The Wall Street Journalcuando la ICM se introdujo por primera vez en la plataforma, un «me gusta» valía un punto; las reacciones y los reenvíos valían cinco puntos; los comentarios «no significativos» valían 15 puntos; y los comentarios o mensajes «significativos» valían 30.

Una métrica como el MSI, que da más peso a los comportamientos menos frecuentes como los comentarios, confiere influencia a un conjunto aún más pequeño de usuarios. Utilizando los valores referenciados por The Wall Street Journal y basándonos en los documentos de Haugen, estimamos que el 1% de los usuarios más visibles públicamente habrían producido alrededor del 45% del MSI en las páginas y grupos que observamos, más o menos un par de veces dependiendo de lo que cuente como un comentario «significativo». En un principio, Mark Zuckerberg rechazó los cambios en el News Feed propuestos por el equipo de integridad de Facebook, según los mensajes internos que caracterizan su razonamiento, porque estaba . Sin embargo, debido a que la actividad está tan concentrada, esto permitió a los usuarios hiperactivos vetar las mismas políticas que habrían frenado su propio abuso.

Nuestros datos sugieren que la mayoría de los MSI en las páginas más importantes de EE.UU. proceden de unos 700.000 usuarios de los más de 230 millones de usuarios que Facebook afirma tener en Estados Unidos. Facebook se negó a responder a nuestras preguntas para este artículo, y en su lugar proporcionó esta declaración: «Aunque no podemos comentar una investigación que no hemos visto, las pequeñas partes que se han compartido con nosotros son inexactas y parecen malinterpretar fundamentalmente cómo funciona el News Feed. El ranking está optimizado para lo que predecimos que cada persona quiere ver, no para lo que hacen los usuarios más activos.»

Dejando de lado los comentarios de Facebook, está bien documentado que la compañía ha utilizado durante mucho tiempo la actividad de los amigos y de los usuarios en general como el predictor clave de «lo que los usuarios quieren ver», y que la ICM en particular ha sido la «estrella del norte» de Zuckerberg. Diversos informes muestran cómo Facebook ha ajustado repetidamente el peso de diferentes componentes del ICM, como los emoji de reacción. Inicialmente de cinco puntos, se redujeron a cuatro, luego a uno y medio, luego los likes y los loves se aumentaron a dos mientras que el peso del emoji enfadado se redujo a cero. Como The Atlantic el año pasado, los documentos internos muestran que los ingenieros de Facebook dicen que encontraron que la reducción del peso de «enojado» se tradujo en una reducción sustancial en el discurso de odio y la desinformación. Facebook hizo ese cambio permanente en el otoño de 2020. Un correo electrónico interno de enero de 2020 dice que Facebook estaba desplegando un cambio que reduciría la influencia que los extraños tenían en la métrica del MSI.

Nuestra investigación muestra algoDiferente: ninguno de estos ajustes cambia el panorama general. Los usuarios que producen más reacciones públicas también producen más «Me gusta», «Compartir» y «Comentarios», por lo que la reponderación sólo cambia ligeramente la importancia de los usuarios más activos. Ahora que podemos ver que los comportamientos dañinos provienen en su mayoría de los superusuarios, está muy claro: mientras la suma de los diferentes tipos de compromiso siga siendo un ingrediente clave en el sistema de recomendación de Facebook, amplifica las opciones de la misma porción ultra-estrecha y en gran medida odiosa de los usuarios.

Entonces, ¿quiénes son estas personas? Para responder a esta pregunta, analizamos una muestra aleatoria de 30.000 usuarios, de los más de 52 millones de usuarios que observamos participando en estas páginas y grupos públicos. Nos centramos en los 300 más activos por el total de interacciones, los que se encuentran en el percentil más alto en su total de me gusta, acciones, reacciones, comentarios y publicaciones de grupo. Nuestra revisión de estas cuentas, basada en la información de sus perfiles públicos y en sus fotos, muestra que estos usuarios principales son mayoritariamente blancos, de mayor edad y -especialmente entre los usuarios abusivos- masculinos. Los usuarios menores de 30 años están prácticamente ausentes.

Dado que los 300 principales usuarios eran todos heavy users, tres cuartas partes de ellos dejaron al menos 20 comentarios públicos durante nuestro período de dos meses, y algunos dejaron miles. Hemos leído todos los comentarios que hemos podido, más de 80.000 en total.

De las 219 cuentas con al menos 25 comentarios públicos, el 68% difundía información errónea, repetía spam, publicaba comentarios racistas, sexistas, antisemitas o antigays, deseaba la violencia a sus supuestos enemigos o, en la mayoría de los casos, varias de las cosas anteriores. Incluso con un margen de error del 6%, está claro que una supermayoría de los usuarios más activos son tóxicos.

Los usuarios más activos impulsaron una vertiginosa y contradictoria avalancha de desinformación. Muchos afirmaron que COVID no existe, que la pandemia es una forma de asesinato masivo planificado, o que es un elaborado complot para microchipar a la población a través del «programa de vacunación asesina» de Bill Gates. Una y otra vez, estos usuarios declararon que las vacunas matan, que las mascarillas enferman y que la hidroxicloroquina y el zinc lo arreglan todo. La desinformación que encontramos no era sólo sobre el COVID: en más de 1.000 comentarios aparecieron mentiras sobre el fraude electoral masivo.

Los comentarios racistas, sexistas, antisemitas y antiinmigrantes aparecieron constantemente. A las mujeres políticas demócratas -especialmente a las negras- se les llamó repetidamente «perra» y cosas peores. Los insultos y el lenguaje deshumanizado sobre las figuras políticas eran omnipresentes, al igual que la creencia, al estilo de QAnon, de que el mundo está dirigido por una cábala secreta de traficantes internacionales de niños.

Además del torrente de mensajes viles, docenas de usuarios de alto nivel se comportaron como spam. En nuestros datos no vemos pruebas a gran escala de cuentas bot o no humanas, y los comentarios han sido tradicionalmente la actividad más difícil de falsificar a escala. Pero sí vemos muchas cuentas que copian y pegan despotricar de forma idéntica en muchas entradas de diferentes páginas. Otras cuentas publicaron enlaces repetidos a los mismos vídeos de desinformación o sitios de noticias falsas. Muchas cuentas también repitieron comentarios de una o dos palabras -a menudo tan simples como «sí» o «¡¡¡SÍ!!!- docenas de veces, un comportamiento inusual para la mayoría de los usuarios. Tanto si este comportamiento estaba coordinado como si no, estos comentarios desechables dieron un gran impulso a MSI, y señalaron al algoritmo de Facebook que esto es lo que los usuarios quieren ver.

En muchos casos, esta mezcla tóxica de desinformación y odio culminó en fantasías sobre la violencia política. Muchos querían disparar, atropellar, colgar, quemar o hacer explotar a manifestantes de Black Lives Matter, «ilegales» o miembros demócratas del Congreso. Normalmente justificaban esta violencia con falsedades racistas o afirmaciones imaginarias sobre los antifa. Muchos de los principales usuarios se jactaban de estar preparados para la aparentemente inevitable violencia, de que estaban comprando armas, de que estaban «preparados y cargados».

Estos inquietantes comentarios no eran sólo palabras vacías: Muchos de los acusados de participar en el atentado del 6 de enero en el Capitolio de Estados Unidos también aparecen en nuestros datos. Pudimos relacionar a los primeros 380 individuos acusados con 210 cuentas de Facebook; 123 de ellas estaban públicamente activas durante el tiempo en que se construyó nuestro conjunto de datos, y 51 dejaron más de 1.200 comentarios en total. El contenido de estos comentarios refleja el lenguaje abusivo del 1% de los usuarios, lo que ilustra aún más el riesgo de pretender que los usuarios dañinos son sólo unas pocas manzanas podridas entre una base de usuarios más civilizada.


Recomendación de algoritmos cambian con el tiempo, y Facebook es notoriamente reservado sobre su funcionamiento interno. Nuestra investigación capta una instantánea importante pero aún limitada de la plataforma. Pero mientras el compromiso de los usuarios siga siendo el ingrediente más importante en la forma en que Facebookrecomienda el contenido, seguirá dando a sus peores usuarios la mayor influencia. Y si las cosas están tan mal en Estados Unidos, donde los esfuerzos de moderación de Facebook son más activos, es probable que .

Permitir que un pequeño grupo de personas que se comportan horriblemente domine la plataforma es una elección de Facebook, no una fatalidad. Si cada uno de los 15.000 moderadores de Facebook en Estados Unidos revisara de forma agresiva a varias docenas de los usuarios más activos y eliminara de forma permanente a los culpables de repetidas infracciones, el abuso en Facebook se reduciría drásticamente en cuestión de días. Pero también lo haría el compromiso general de los usuarios.

Tal vez por eso descubrimos que Facebook rara vez toma medidas, incluso contra los peores infractores. De las 150 cuentas con un comportamiento claramente abusivo de nuestra muestra, sólo siete fueron suspendidas un año después. Facebook puede condenar públicamente a los usuarios que publican odio, difunden información errónea y buscan la violencia. Sin embargo, en privado, cientos de miles de infractores reincidentes siguen figurando entre las personas más importantes de Facebook.