El enfoque de Al Capone para los anti-vacunas

A fines de agosto, los usuarios de Reddit le dijeron a los líderes de la compañía que tenían sangre en las manos. Como parte de una protesta organizada, los moderadores de docenas de subreddits grandes, o foros en el sitio, compartieron una carta en la que condenaban a Reddit por no actuar sobre la difusión «desenfrenada» de información errónea sobre COVID-19 y permitir subreddits anti-vacunas con mentalidad conspirativa. para proliferar. La carta enfatizó que las vacunas son seguras, las mascarillas son efectivas y las medidas de distanciamiento social son útiles. «Los subreddits que existen únicamente para difundir desinformación médica y socavar los esfuerzos para combatir la pandemia global deben prohibirse», dijo.

El CEO de Reddit, Steve Huffman, respondió con su propia carta abierta señalando que «la disidencia es parte de Reddit y la base de la democracia», y que aquellos que no están de acuerdo con los CDC no están violando las políticas del sitio. Poco después de su publicación, muchos de los moderadores que habían compartido la carta cerraron sus subreddits indignados. (La protesta por el apagón incluyó el foro de 3.3 millones de miembros para Pokémon Go, que se convirtió en su propia noticia). Al final, Huffman tomó medidas: el 1 de septiembre, Reddit eliminó su subreddit más notorio de teorías de conspiración contra las vacunas. llamados r / NoNewNormal y “en cuarentena”, es decir, cubiertos con una pantalla de advertencia y eliminados de los resultados de búsqueda, otros 54, incluido el subreddit dedicado al fármaco antiparasitario ivermectina. «¡R / NoNewNormal ha sido prohibido!» lea una publicación en el subreddit dedicada al drama en el sitio. «¡Discuta este suceso dramático aquí!» (Otros celebraron con memes, obviamente).

Pero el liderazgo de Reddit no había accedido del todo a las demandas de los manifestantes. La carta de los moderadores había pedido específicamente atención especial, aplicación o reglas sobre la desinformación de COVID-19. Eso no es exactamente lo que obtuvieron. La prohibición de r / NoNewNormal no se debió al hábito de sus usuarios de compartir información errónea y desinformación sobre la salud, sino más bien por «brigading», es decir, su historial de atacar otras comunidades de Reddit con spam o trolling. Los 54 subreddits en cuarentena tampoco fueron citados por alteración específica de hechos verdaderos, sino por violar la primera regla de la política de contenido de Reddit, que protege a los usuarios del acoso, el discurso de odio y las amenazas de violencia. Esa regla, me explicó un portavoz en un correo electrónico, puede interpretarse en el sentido de que prohíbe la difusión de «información de salud falsificable que fomente o presente un riesgo significativo de daño físico para el lector».

En otras palabras, cuando se enfrentó a un problema que sus políticas no cubrían (desinformación de salud), Reddit arregló una solución. Utilizó herramientas desarrolladas para una crisis previa en la moderación de contenidos, sobre el discurso de odio y el acoso, y las adaptó para hacer frente a la actual. Debemos esperar que este drama se repita una y otra vez en los próximos meses. Las plataformas, sus usuarios y los expertos en redes sociales aún se encuentran en las primeras etapas del debate sobre cómo debería ser la moderación de contenido efectiva en torno a la desinformación sobre salud, y muchos de ellos saben que las políticas demasiado amplias crearían problemas graves y limitarían drásticamente el debate razonable. Hasta que se resuelva esa tensión, las plataformas se basan, en gran medida, en las inclinaciones de los activistas contra las vacunas y los teóricos de la conspiración de COVID-19 para romper reglas existentes no relacionadas. Por el momento, es la mejor solución disponible.


Reddit es conocido por haber pasado decidiendo que debería lidiar de manera significativa con el acoso, el discurso de odio y otras formas de abuso. La plataforma fue un libre para todos durante muchos años, desenfrenada de misoginia y racismo, y una buena parte de la base de usuarios tuvo que dirigirse gradualmente hacia políticas que pudieran proteger el discurso de algunos limitando el discurso de otros. (Además, un montón de De Verdad los usuarios que odian tenían que ser eliminados.) Para muchos de sus usuarios actuales, el nuevo debate de moderación, el de la desinformación sobre la salud, debería ser menos complicado que el anterior. “Si la gente está discutiendo si Bigfoot es real, está bien. Si la gente está discutiendo sobre candidatos políticos, está bien ”, dijo un moderador del foro de asesoramiento popular r / AmITheAsshole llamado Frank, quien, como los otros moderadores citados en esta historia, pidió usar su nombre de pila debido a la preocupación por el acoso. “Creo que hay una diferencia sustancial cuando se trata de cuestionar la ciencia básica en medio de una pandemia global. Tiempo [Reddit’s leaders] no son legalmente responsables, ciertamente son éticamente responsables por permitir ideas que son peligrosas para la salud y la vida de su base de usuarios «.

Algunos hechos científicos están en blanco y negro, por supuesto, pero los moderadores pueden estar subestimando el desafío de determinar qué hechos son cuáles en la contienda de una política amplia sobre desinformación en salud. “El acoso es una cuestión de valores, qué es demasiado mezquino o demasiado dañino”, me dijo James Grimmelmann, profesor de la Facultad de Derecho de la Universidad de Cornell que ha escrito extensamente sobre la moderación del contenido. «La información de salud trata sobre la verdad: ¿cuál es la verdad sobre cómo se propagan los virus, qué medicamentos los previenen, qué otras medidas los previenen?» Moderar la verdad es más fácil decirlo que hacerlo, me dijo, especialmente cuando los hechos científicos están en proceso de evolución. Al comienzo de la pandemia, por ejemplo, la «verdad» era que la gente común no debería comprar máscaras, porque teníamos que guardarlas para los trabajadores de la salud. “Ese entendimiento cambió”, dijo Grimmelmann. «Las plataformas habrían hecho daño si hubieran moderado eso en una línea brillante».

En una declaración enviada por correo electrónico, un portavoz de Reddit hizo un argumento similar: «El término desinformación puede ser vago y difícil de definir, dado el ritmo de cambios en nuestra comprensión del COVID-19, las vacunas y las pautas de salud pública durante el año pasado». ellos escribieron.

Los moderadores de Reddit parecen entender esto. Reconocen que pedir a las empresas de redes sociales que adjudiquen información médica es complicado y podría producir resultados descuidados. Investigadores y académicos también lo han señalado. Robyn Caplan, estudiante de doctorado en la Universidad de Rutgers, llamó a COVID-19 «una crisis de mediación de contenido» el año pasado, y escribió: «Lo que debemos preguntarnos ahora es si confiamos en las empresas de tecnología para desempeñar este papel de reconciliar la Internet generada por los usuarios con jerarquías de producción de conocimiento «. Aún así, los Redditors están pidiendo … algo. Cuando hablé con un moderador del Star Trek foro, que solicitó usar su nombre de usuario, Corgana, le pregunté si pensaba que Reddit debería prohibir cualquier comunidad en la que las personas estuvieran discutiendo los efectos secundarios o fallas de las vacunas. Insistió en que la diferencia entre conversación intelectual y daño activo debería ser obvia. “NoNewNormal no fue un subreddit de ‘debate sobre la eficacia de las vacunas’”, dijo. «Era un subreddit para crear propaganda que se extendiera a otras partes de Internet».

Entonces, tal vez Reddit podría simplemente hacer una lista de rumores de vacunas desacreditados, como los que NoNewNormal se dedicó a amplificar, y eliminar todo ese contenido. «Reddit podría adoptar una política sobre información errónea conocida, y luego solo tienen que identificar esa información errónea y eliminarla», dijo Grimmelmann. Pero eso sería mucho trabajo y sería complicado debido a que el sitio depende de moderadores voluntarios para mantener a raya a sus propias comunidades. Reddit tenía una herramienta para informar manualmente la información errónea, que parece haber utilizado principalmente para el análisis de datos. Un portavoz dijo que la mayoría de los informes presentados a través de él «no eran procesables de manera significativa» y que Reddit ahora ofrece una herramienta para informar la «interferencia» de la comunidad. (Otro término, básicamente, para brigada). Más importante, me dijo Grimmelmann, cualquier política de este tipo sería «culturalmente difícil» de adoptar para Reddit, dada la historia del sitio como un lugar para el debate intelectual e «intelectual». Una prohibición explícita de la desinformación sobre vacunas representaría «un replanteamiento serio de lo que es y es Reddit».

La respuesta inicial del CEO de Reddit a sus usuarios enfurecidos mostró deferencia a esa cultura: imploró a la comunidad que tuviera «la voluntad de comprender por lo que están pasando los demás, incluso cuando su punto de vista sobre la pandemia es diferente al tuyo». Sin embargo, su publicación también insinuó las formas en que los diferentes puntos de vista, si fueran lo suficientemente peligrosos, podrían moderarse por otros medios. «Manipular o engañar a Reddit» para ampliar una opinión es en contra de las reglas, escribió, al igual que «fraude» y «alentar el daño». Como tal, Reddit puede castigar a los usuarios o comunidades que abogan por tarjetas de vacunas falsas o actividades peligrosas que supuestamente son curas de COVID-19, como beber lejía. La respuesta posterior de la compañía a la protesta, escrita por un miembro del equipo de seguridad de la compañía, aclaró que sus reglas contra la suplantación de identidad, el fraude y la manipulación también cubren compartir consejos falsos de la Organización Mundial de la Salud o los CDC o datos médicos fabricados. (Un portavoz me enfatizó que estos comentarios no representan cambios en ninguna política de Reddit ni en cómo se aplican esas políticas).

Reddit ha ejecutado maniobras similares en el pasado para tomar decisiones de moderación complicadas. En junio de 2020, el sitio llamado r / The_Donald, que promovía una retórica política violenta y racista. Debido a que sus reglas contra el discurso del odio eran vagas e inadecuadas en ese momento, la compañía se apoyó en la misma justificación que usó este mes para eliminar r / NoNewNormal: r / The_Donald, dijo, se había involucrado en brigadas. Del mismo modo, cuando Reddit en 2018, no fue explícitamente debido a sus teorías de conspiración locas y fantasías de asesinatos en masa u otros comportamientos problemáticos que molestaron a otros usuarios. Más bien, fueron eliminados por hacer doxing (publicar la información de identificación de una persona en contra de su voluntad), lo cual está sujeto a una fuerte norma de desaprobación en todo el sitio. (La política de contenido de Reddit se revisó significativamente el verano pasado y ahora prohíbe una gama más amplia de comportamientos abusivos).

Las plataformas sociales encuentran útil moderar el contenido sobre la base de ese tipo de tecnicismos, me dijo Grimmelmann, porque pueden defender más fácilmente cualquier decisión de aplicación dada como la simple aplicación de una regla básica. Una parte sustancial de los esfuerzos de Facebook para acorralar la retórica contra las vacunas, por ejemplo, ha sido actuar contra el «comportamiento no auténtico coordinado», que se refiere a redes de cuentas falsas, y el «daño social coordinado», que se refiere a cuentas reales que tienen un historial. de trabajar juntos para evadir el castigo por romper las reglas. Pero este enfoque depende de esperar a que los malos actores cometan delitos procesables, incluso cuando se involucran en otros comportamientos dañinos. Los usuarios de estos sitios dicen que les da a los grupos tiempo para crecer e incluso a las organizaciones fuera de línea antes de que sean prohibidos.

Los participantes en la protesta de Reddit esperaban algo que requiriera un poco menos de rabia. Quieren un compromiso claro de algún tipo de que la plataforma protegerá a sus usuarios de ideas que podrían matarlos. Si no saben realmente cómo se vería eso en la práctica, saben lo que es no parece. Muchos de los moderadores no quedaron satisfechos con la prohibición de un foro atroz debido a su otro mal comportamiento. (Algunos incluso querían mantener la protesta por el apagón hasta que los 54 subreddits en cuarentena también fueran prohibidos, pero fueron rechazados). “Mucha gente está decepcionada”, Ben, un maestro de Rhode Island que modera el subreddit anti-desinformación. r / ParlerWatch, me dijo. «Esa es solo una forma de que Reddit reduzca la situación y detenga la protesta, pero también evite abordar el problema de raíz».