No abraces a los vacunados
Dos años antes de que un extraño virus apareciera en China, un funcionario de la Organización Mundial de la Salud (OMS) llamado Andy Pattison, suizo, se presentó ante su jefe con un plan para un evento de ese tipo. Las redes sociales se habían convertido en un vector de desinformación médica, le dijo a Tedros Adhanom Ghebreyesus, director general de la OMS. Informes angustiosos de personal sanitario en Brasil y otros lugares habían dejado claro que esas plataformas serían un frente de batalla clave en cualquier emergencia de salud pública. Había que empezar a prepararse.
Tedros estuvo de acuerdo y creó una oficina en la sede de la agencia en Ginebra. Puesto que la OMS, como otros organismos de la ONU, realiza buena parte de su trabajo asesorando y, en los días buenos, persuadiendo a los gobiernos, la media docena de empleados de la oficina se centró en cultivar lazos con las grandes empresas tecnológicas estadounidenses que Pattison consideraba centros de poder por derecho propio. Los avances fueron lentos. Ayudaron a Pinterest a mejorar los resultados de búsqueda sobre vacunas. Asesoraron a Google en una aplicación de ejercicio físico. “El interés que encontré fue muy escaso. Me recibían personas del escalafón más bajo, durante muy poco tiempo”, ha contado Pattison, añadiendo que de aquellas reuniones solía salir poca cosa.
Luego, el 21 de enero de 2020, científicos chinos anunciaron que el virus, que había causado la muerte de cuatro personas, se estaba transmitiendo de persona a persona. En dos días, el número de fallecidos subió a diecisiete. Una semana después, la OMS declaró la emergencia sanitaria global. La oficina de Pattison activó sus contactos en Silicon Valley. “Planteé el mensaje en un plano muy humano: ‘Volved a vuestras empresas, poneos en marcha, empezad a reunir equipos’”, recuerda haberles dicho. Organizó llamadas entre Tedros y los máximos responsables de Facebook, Google y otras plataformas. Mark Zuckerberg y Sheryl Sandberg sugirieron que la OMS abriera páginas en WhatsApp y Facebook para publicar actualizaciones y responder a las preguntas de los usuarios.
El 13 de febrero, dos semanas después de que la propagación del virus, que ya se conocía como Covid-19, fuera declarada emergencia global, Pattison aterrizó en California para una reunión, organizada en Facebook, con las principales empresas de Silicon Valley. La vida seguía siendo normal en Estados Unidos y Europa. Pero su percepción de la crisis ya había cambiado. Aquel día, declaró en CNBC, se enfrentaban a una “infodemia”. Las principales plataformas de redes sociales, entre ellas Twitter y YouTube, estaban “inundadas de desinformación”, dijo.
En Facebook ya estaban logrando cientos de miles de interacciones publicaciones que afirmaban —mes y medio antes de que Trump proclamara lo mismo desde el atril de la sala de prensa de la Casa Blanca— que el virus podía curarse bebiendo lejía diluida. En Instagram, influencers explicaban que Bill Gates había inventado el virus para justificar vacunaciones forzosas. Un mensaje reenviado y viral en WhatsApp aseguraba que la CIA estaba acaparando alimentos. Vídeos de YouTube que atribuían la enfermedad a las antenas de telefonía 5G, insinuando que en realidad no existía ningún virus, empezaron de pronto a acumular millones de visualizaciones.
A instancias de Pattison, las empresas se comprometieron a endurecer algunas normas. YouTube eliminaría los vídeos que contravinieran las directrices de la OMS. Facebook enviaría notificaciones a los usuarios si intentaban compartir una publicación sobre la Covid que sus moderadores hubieran marcado como falsa. Las plataformas prometieron a Pattison, y al mundo, que habían aprendido de errores pasados. Esta vez lo harían bien.
A medida que el virus se extendía por países enteros en aquellas primeras semanas, el miedo y el aislamiento se propagaban con él. Tiendas y espacios públicos echaban el cierre y bajaban la persiana. Una quietud apocalíptica se apoderó de las grandes avenidas y zonas comerciales, solo interrumpida por el ulular de las sirenas cuando se desbordaban las plantas de hospital y, en algunos lugares, por la presencia macabra de camiones frigoríficos al ralentí frente a morgues saturadas.
Las familias se atrincheraban en casa como si se prepararan para una invasión, saliendo únicamente para tensas compras de víveres durante las cuales, en nuestra ignorancia colectiva, muchos se ponían guantes o rociaban con Windex los productos frescos cuyas superficies, por lo que sabíamos entonces, podían estar mortalmente contaminadas.
Cada tarde, las ciudades volvían a cobrar vida durante un solo minuto, cuando los habitantes encerrados en sus pisos abrían las ventanas para aplaudir y aclamar en señal de gratitud al personal de primera línea, aunque quizá también como forma de aferrarse a algún sentimiento de comunidad, a la seguridad que proporciona el número.
Durante las otras 23 horas y 59 minutos del día, quienes sentían miedo o soledad podían recurrir a esa otra ventana al mundo exterior: su ordenador. En cuestión de días se concentraron varios años de adopción digital. Facebook informó de un aumento del 70% en su uso en algunos países. El de Twitter creció un 23%. Una empresa de servicios de internet calculó que la cuota de YouTube en el tráfico mundial de la red pasó del 9% al 16%. El uso global de internet aumentó un 40%, añadía la empresa, lo que sugería que, en realidad, el tráfico de YouTube casi se había triplicado.
Pese a los esfuerzos de Pattison por preparar a las compañías, unas cuantas etiquetas de verificación de hechos no podían resolver el problema de fondo. Las redes sociales seguían siendo una máquina diseñada para distorsionar la realidad a través del prisma del conflicto tribal y para arrastrar a los usuarios hacia los extremos. Y la pandemia —la amenaza de un peligro invisible, omnipresente e incontrolable— activó precisamente las emociones que alimentaban esa máquina, a una escala mayor que cualquier otro acontecimiento desde la creación de las propias plataformas.
Era como si el mundo entero se hubiera convertido en una aldea azotada por el Zika cuyas madres recurrían desesperadas a los rumores en línea, o en una colectividad de jóvenes solitarios que iban alimentando mutuamente su desilusión y su anomia hasta transformarlas en una lucha compartida contra un enemigo inventado.
Las conspiraciones sobre el coronavirus, que prometían acceso a verdades prohibidas que los demás no conocían, permitían a sus creyentes sentir certeza y autonomía en plena crisis, cuando ambas cosas les habían sido arrebatadas. Al atribuirlo todo a algún villano o complot, dotaban de cierto sentido, por oscuro que fuera, a una tragedia absurda. Y ofrecían a los usuarios una manera de pasar a la acción: primero compartiendo su saber secreto con otros y, después, diciéndose mutuamente que se unirían contra el culpable al que la conspiración señalara.
El gran relato de fondo —el coronavirus es un complot de Ellos para controlarnos a Nosotros— estaba por todas partes ya en abril. A menudo, las conspiraciones nacían de usuarios corrientes con apenas seguidores. La publicación en Facebook de un misionero de un pequeño pueblo que acusaba a Bill Gates y a China de propagar el coronavirus para minar a Trump. El tuit de una esteticista de Houston que alineaba epidemias pasadas con años electorales (las fechas estaban mal) y añadía el mensaje: “El coronavirus es una enfermedad creada por el gobierno”. Un vídeo en YouTube de dos médicos que presentaban afirmaciones falsas según las cuales la Covid era en su mayoría inofensiva y se podía prescindir de las mascarillas. Cada uno de estos contenidos alcanzó audiencias de millones de personas gracias, exclusivamente, a los sistemas de promoción de las plataformas.
Estos casos distaban mucho de ser excepciones. Los vídeos con desinformación sobre las vacunas proliferaron por YouTube, instando a decenas de millones de espectadores a no creer en la “mafia médica” que supuestamente pretendía insertar microchips en sus hijos. Facebook también experimentó un “crecimiento explosivo de opiniones antivacunas”, según un estudio publicado en Nature, a medida que el sistema de recomendación de la plataforma parecía desviar a enormes cantidades de usuarios desde páginas de salud convencionales hacia grupos antivacunas.
A lo largo de 2020, tres fuerzas crecieron en paralelo en las plataformas de redes sociales, y las conspiraciones sobre el coronavirus fueron solo la primera. Las otras dos resultarían igual de decisivas: unas corrientes de extremismo en línea que llevaban tiempo acumulándose, con nombres que muchos estadounidenses habrían encontrado ridículos al comenzar el año y que resultaban aterradores al terminarlo; y, por otro lado, entre los estadounidenses en general, una indignación ultrapartidista y una desinformación exagerada hasta el punto de convertir la rebelión armada no solo en algo aceptable sino, para muchos, en algo necesario.
Las tres fuerzas se alimentaban de causas que existían al margen de las redes sociales —la pandemia, la reacción de sectores blancos ante una oleada de protestas por la justicia racial durante el verano y, en especial, el presidente Trump—. Pero las redes sociales impulsaron y moldearon esas causas hasta que, el 6 de enero de 2021, convergieron en un acto de violencia masiva, organizado en línea, que cambiaría el rumbo de la democracia estadounidense, quizá de forma irreversible.
Durante toda aquella primavera, mientras las mentiras y los rumores sobre la Covid se propagaban, los gigantes de las redes sociales insistían en que estaban tomando todas las medidas posibles. Pero los documentos internos sugieren que, ya en abril, los directivos de Facebook eran conscientes de que sus algoritmos estaban impulsando desinformación peligrosa, que podían haber frenado drásticamente el problema con solo accionar un interruptor y que se negaron a hacerlo por miedo a perjudicar el tráfico.
Los investigadores de la compañía habían descubierto que los “reenvíos en cadena” (serial reshares), es decir, las publicaciones reenviadas una y otra vez de usuario en usuario, tenían más probabilidades de ser desinformación.
El algoritmo, al ver en esas publicaciones un buen combustible viral, amplificaba artificialmente su alcance. Según comprobaron los propios investigadores de Facebook, bastaba con desactivar ese impulso para reducir hasta en un 38% la desinformación relacionada con la Covid. Pero Zuckerberg lo vetó. “Mark no cree que podamos aplicarlo de forma generalizada”, escribió en una nota una empleada que le había informado de los resultados. “No lo pondríamos en marcha si hubiera una pérdida apreciable en el MSI”, añadía, usando el acrónimo interno de Facebook para las “interacciones sociales significativas” (meaningful social interactions).
Ese mismo mes, los investigadores de Facebook analizaron las páginas de “viralidad fabricada” (manufactured virality), que se dedican a volver a publicar contenido que ya es viral para atraer seguidores: una herramienta favorita de estafadores, creadores de clickbait y operadores de influencia rusos. Descubrieron que estos traficantes de viralidad eran responsables del 64% de la desinformación y del 19% del tráfico de todas las páginas de Facebook, unas cifras impactantes, aunque parecían un objetivo relativamente fácil de eliminar. Pero cuando presentaron sus conclusiones a Zuckerberg, este “restó prioridad” a su trabajo. Facebook mantuvo ambos hallazgos en secreto.
Con las plataformas funcionando como de costumbre y 6000 personas muriendo cada día de Covid, un tercio de ellas en Estados Unidos, el mundo estaba, en mayo, preparado para Plandemic. El vídeo, un falso documental de veintiséis minutos, se subió el 4 de mayo a Facebook y YouTube. Presentaba a una pionera científica del VIH (en realidad, una ex investigadora desacreditada) que revelaba, según el narrador, “la plaga de corrupción que pone en peligro toda la vida humana”. El vídeo afirmaba que el virus había sido creado para justificar la imposición de vacunas peligrosas con fines de lucro, que las mascarillas causan enfermedades, que el fármaco antipalúdico hidroxicloroquina podía prevenir la Covid, y muchas otras cosas.
La ruta que siguió el vídeo hacia la viralidad reveló —y quizá trazó— los caminos dentro de las redes sociales por los que discurriría gran parte del caos de 2020. Empezando en grupos de antivacunas, conspiracionistas en general y QAnon, su relato confirmaba cada una de sus visiones del mundo. Intensificaba su sensación de estar librando un gran conflicto. Y los movilizaba en torno a una causa: la oposición a las fuerzas en la sombra detrás de la Covid.
En el plazo de una semana, Plandemic se extendió a las comunidades de medicina alternativa, luego a los influencers del bienestar y después a páginas genéricas de estilo de vida y yoga. Por otro lado, circuló por páginas y grupos contrarios a los confinamientos, luego por páginas pro Trump y, más tarde, por páginas de cualquier causa cultural o social siquiera vagamente alineada con el conservadurismo.
Cada una lo asumió como un llamamiento colectivo a la acción, integrándolo en su identidad compartida. Muchas lo impulsaron hacia Twitter e Instagram, reiniciando de nuevo el proceso. Siguiendo un guion que a esas alturas empezaba a resultar monótono, las empresas no reaccionaron hasta que los medios empezaron a llamarles para pedirles comentarios. Para entonces, ya era demasiado tarde. Aunque retiraron el vídeo en sí, sus afirmaciones y llamamientos a la acción ya estaban bien incrustados en el torrente sanguíneo digital y han reaparecido una y otra vez en conspiraciones en redes sociales desde entonces.
Para agosto, Andy Pattison, el funcionario de la OMS, llegó a la conclusión de que tendría que cambiar por completo de estrategia con Silicon Valley. “El reto que tengo con ellos es convencerles de anteponer la sostenibilidad y la madurez al beneficio absoluto”, declaró a una publicación especializada en desarrollo, hablando con más franqueza de la que habría usado con los medios. “Y esa es una conversación difícil, porque todos tienen una cuenta de resultados que cuidar”.
Se reunía con regularidad con los interlocutores corporativos durante toda la pandemia. Pero las pruebas de daños reales no dejaron de acumularse. Un estudio concluía que los estadounidenses que usaban Facebook, Twitter o YouTube tenían más probabilidades de creer que la vitamina C podía tratar con éxito la Covid o que el Gobierno había fabricado el virus. Millones rechazaban las mascarillas y el distanciamiento social y, más tarde, rechazarían las vacunas. Los médicos informaban de un número creciente de pacientes que se negaban a recibir tratamientos que les salvarían la vida basándose en algo que habían visto en internet. Trump, a la vez impulsor e impulsado por la ira en línea que impregnaba a su base, alentó cada uno de estos pasos, promocionando falsas curas contra la Covid y prometiendo “liberar” a los Estados con medidas de confinamiento.
“Más pruebas de una Plandemia”, escribió por SMS un californiano a su primo en octubre, enlazando a un vídeo de TikTok, en un tipo de intercambio que se había vuelto rutinario en la vida estadounidense. “No abraces a nadie vacunado, los síntomas están directamente relacionados con el ‘vaccine shedding’”, respondió el primo, en referencia a una teoría conspirativa difundida en Facebook. Ambos tenían Covid.
Durante días, se intercambiaron mensajes atribuyendo sus síntomas a médicos intrigantes o a las vacunas, basándose en rumores que habían visto en internet, según los mensajes recuperados posteriormente por la escritora Rachel McKibbens, hermana de uno de los hombres. “El maldito hospital me puso muchísimo peor. Mis pulmones no estaban ni de lejos tan mal cuando entré allí”, escribió el hermano de McKibbens. Estaba convencido de que el personal del hospital “ahora solo está en esto por dinero”.
A medida que su salud se deterioraba, ambos hombres se aferraban a cualquier indicio de que los rumores de las redes sociales tenían razón, y uno de ellos atribuyó la regla abundante de su esposa a las vacunas, basándose en una falsedad difundida en Instagram. Se recomendaban entre sí tratamientos fraudulentos que circulaban en YouTube y Facebook. Sobre todo, se instaban mutuamente a resistirse a los consejos de médicos, autoridades sanitarias e incluso de la propia McKibbens.
Su hermano, cuyos síntomas empeoraban, fue hospitalizado. Pero, convencido de que los médicos le estaban envenenando como parte de las conspiraciones de las que había oído hablar una y otra vez en internet, rechazó el tratamiento y se marchó, atrincherándose en casa. Unos días después, murió allí, solo.
Saqueos y tiroteos
Mientras poblaciones enteras se precipitaban en la desinformación sanitaria aquella primavera y verano, en las redes sociales se abría un segundo agujero de conejo paralelo, que atrapaba a jóvenes blancos desengañados que buscaban comunidad y propósito.
Aunque más reducido que el de quienes caían en las teorías conspirativas sobre la Covid, este grupo resultaría casi igual de peligroso una vez que las plataformas hubieron hecho su trabajo. La ultra derecha en línea, antes centrada poco más que en Gamergate o en memes de Pepe the Frog, fue reclutada hacia un mundo de milicias autodenominadas que se preparaban para el colapso social que estaban seguras de que era inminente.
Para Steven Carrillo, un sargento de Estado Mayor de las Fuerzas Aéreas de treinta y dos años, el deslizamiento que lo llevó de las bravuconadas en grupos de Facebook sobre violencia a su ejecución real comenzó en marzo de 2020, cuando otro usuario le escribió por mensaje: “Empieza a preparar ese operativo… voy a darle luz verde a alguna movida”. Él respondió: “Suena bien, hermano”.
Carrillo había llegado a esos grupos tras una vida convulsa. Creció en la pobreza, pasando de unos padres que vivían en pequeños pueblos de California a unos abuelos en la zona rural de México. En 2015 sufrió un traumatismo craneoencefálico en un accidente de tráfico que apagó la personalidad antes vivaz que tenía, y en 2018 perdió a su esposa, que se suicidó. Después de eso, entregó a sus hijos a sus suegros y se fue a vivir a una furgoneta.
“Estaba completamente desconectado”, ha contado su hermana. Pero la Fuerza Aérea lo desplegó en Oriente Medio durante buena parte de 2019. En la base, unos amigos le presentaron grupos de Facebook que se autodenominaban milicias. En realidad eran páginas de conversación dedicadas a fantasear con una insurrección o una guerra civil. Ofrecían a sus miembros una manera de darle sentido al mundo, reencuadrándolo dentro de la narrativa extremista de una crisis individual respondida con una solución colectiva, del mismo modo que los incels de Reddit habían encontrado comunidad imaginando un levantamiento contra las feministas, o los usuarios de 8chan lo habían hecho elogiando actos de genocidio hasta que Brenton Tarrant llevó a cabo uno en Nueva Zelanda.
El grupo de Carrillo se había bautizado, con un guiño irónico similar, como Boogaloo. Había nacido como un meme en 4chan. Los usuarios de ese foro llamaban a una insurrección nacional destinada a derrocar al Gobierno y crear una utopía de derechas, invocando “Civil War 2: Electric Boogaloo”, un juego de palabras con la película de baile de los años ochenta Breakin’ 2: Electric Boogaloo.
En la primavera de 2020, a medida que las plataformas daban lugar a comunidades que veían los confinamientos exactamente como la maniobra de acaparamiento de poder pronosticada por teorías conspirativas virales como las de Plandemic o QAnon, los algoritmos de las redes sociales identificaron páginas de milicias antes marginales, como Boogaloo, como justo el tipo de contenido que podía arrastrar a esos usuarios aún más al interior de los mundos en línea.
Las publicaciones de Boogaloo se difundieron con tanta rapidez por Facebook, Twitter, Instagram y Reddit que un grupo de seguimiento del extremismo advirtió de que estaban “desarrollándose insurrecciones virales a plena vista”.
Los conspiracionistas de la Covid, enlazados algorítmicamente con las causas de las milicias, aportaron a estas nuevos reclutas y una causa recién dotada de urgencia: un conflicto final e inminente con el Gobierno; las milicias, a su vez, ofrecían a los conspiracionistas un sentido de propósito. Crisis y solución.
Como en otros movimientos que habían pasado de 4chan a Facebook, Boogaloo y otras milicias cuyos seguidores publicaban mensajes sobre desencadenar una guerra civil parecían, en su mayor parte, estar lanzando señales de pertenencia al grupo más que expresando una intención sincera. Pero algunos perdieron de vista la diferencia; las instrucciones para fabricar explosivos caseros y armas de fuego proliferaron.
Un documento titulado “Boogaloo Tactics”, compartido en Facebook e Instagram, señalaba que los “asesinatos” de “los burócratas de despacho” debían esperar hasta que sus “crímenes” estuvieran “probados ante el pueblo”, pero añadía, no obstante, que, más a corto plazo, “hay gente que tiene que caer”.
Los miembros de Boogaloo empezaron a aparecer, fuertemente armados, en las protestas contra los confinamientos, esperando a que empezaran los tiros.
A comienzos de 2020, Carrillo, ya de vuelta en California y con una nueva relación con una mujer de la zona, pasaba cada vez más tiempo en las páginas del grupo, adoptando Boogaloo como identidad.
Adornó su perfil de Facebook con memes de milicia y, en marzo, compró un componente para un AR-15 a través de una página web que se anunciaba en los grupos de Facebook de Boogaloo y prometía donar parte de sus beneficios a la familia de un presunto miembro de Boogaloo muerto ese mismo mes en un enfrentamiento con la policía.
Unas semanas después de su intercambio de mensajes sobre preparar una “operación”, Carrillo se unió a grupos de Facebook y de WhatsApp solo por invitación para miembros locales de Boogaloo, donde organizaban encuentros de “entrenamiento con armas de fuego” y discutían planes vagos para desencadenar su guerra civil matando a agentes de policía.
Un documento de incorporación que rellenó en abril le informaba, con el aire de fantasía de videojuego habitual en estos grupos: “Nuestras áreas de operaciones pueden llevarnos del campo al centro de la ciudad en un abrir y cerrar de ojos”.
Boogaloo era solo uno entre muchos otros grupos similares. Ese mismo mes, activistas armamentistas de extrema derecha crearon páginas en Facebook, Estado por Estado, llamando a los vecinos a protestar contra las órdenes de quedarse en casa.
Aunque los activistas tenían poco alcance previo, sus grupos atrajeron a 900.000 usuarios, una clara señal de promoción algorítmica. A cada concentración acudieron apenas unas decenas de personas, algunas armadas con fusiles de estilo M15. Pero miles siguieron activos en las páginas que, con el tiempo, se fusionaron con las comunidades más amplias de reacción y conspiración que las plataformas continuaban aglutinando en un conjunto mayor, fomentando que esas identidades y causas se confundieran entre sí.
La violencia organizada a través de Facebook se volvió más frecuente y más extrema. En Arkansas, ese mes de mayo, miembros de una milicia de Facebook irrumpieron en los terrenos de la mansión del gobernador y lo quemaron en efigie. En Washington, los organizadores insinuaron que una manifestación culminaría en ataques contra ciudadanos locales que, según supieron a partir de registros policiales, habían denunciado a comercios que incumplían las órdenes de cierre por la Covid. Aunque los ataques en sí nunca llegaron a producirse, a la concentración acudieron 1.500 personas, muchas de ellas armadas.
Las milicias, los conspiracionistas de la Covid y las comunidades afines pro-Trump también habían empezado a asumir la urgencia de vida o muerte de otra causa con la que las plataformas los habían conectado repetidamente: QAnon. Con la ayuda del algoritmo, la creencia en QAnon impregnaba ya todas estas causas separadas, del mismo modo que Renée DiResta había descubierto que la función de grupos de Facebook mezclaba a antivacunas con Pizzagate (la conspiración precursora de QAnon) ya en 2016.
La investigadora de desinformación Nina Jankowicz se topó con una trayectoria típica ese verano. Buscaba en Facebook “salud alternativa”, se unía a uno de los grupos mejor situados en los resultados y luego seguía la barra lateral de “grupos relacionados”, generada algorítmicamente por Facebook, que con frecuencia la llevaba a páginas de Q.
Era un recorrido breve y brutalmente eficaz que amenazaba con arrastrar a cualquiera que buscara remedios contra la Covid en un momento en que la ciencia médica aún no tenía ninguno.
El patrón se reproducía en todas las grandes plataformas, convirtiendo el miedo y la confusión de los estadounidenses primero en creencias conspirativas más suaves y luego en un conspiracionismo QAnon plenamente desarrollado, un enorme motor de interacción en las plataformas.
Canales de bienestar en YouTube e influencers de fitness en Instagram derivaban de la astrología a las conspiraciones sobre el coronavirus y de ahí a QAnon. La mayor red antivacunas de Facebook se llenó de mensajes en clave de Q. TikTok se inundó de conspiraciones de Pizzagate. Una tiktoker de veinte años que había contribuido a reactivar Pizzagate dijo haber conocido el tema a través de un vídeo viral de YouTube. Cuando los productores de Plandemic lanzaron una secuela, el vídeo fue difundido sobre todo a través de páginas de Q.
Al comienzo de la pandemia, la causa QAnon, entre un cúmulo ya casi impenetrable de referencias y esoterismo, se había afinado en torno a una creencia central: el presidente Trump y un puñado de generales leales estaban a punto de ejecutar un glorioso golpe militar que derrocaría a la camarilla que había orquestado Pizzagate y que dominaba en secreto la vida estadounidense.
En la purga subsiguiente, los militares ejecutarían en el National Mall a decenas de miles de demócratas traidores, financieros judíos, burócratas federales y liberales culturales. A los seguidores de Q —la mayoría de los cuales se congregaban en Facebook o YouTube y nunca se acercaban a los foros más radicales donde aparecieron inicialmente las “drops” de Q— se les decía que desempeñaban un papel crucial, aunque solo fuera siguiendo las pistas y ayudando a difundir el mensaje.
Ese verano, noventa y siete confesos creyentes en QAnon se presentarían a primarias para el Congreso; veintisiete de ellos ganarían. Dos se presentaron como independientes. Los otros veinticinco eran candidatos oficiales del Partido Republicano a la Cámara de Representantes. Los memes y referencias a QAnon dominaban especialmente las páginas de milicias, reforzando la sensación de que la violencia sería tanto justa como inevitable.
A finales de mayo, Ivan Hunter, el miembro de Boogaloo con quien Carrillo había intercambiado mensajes sobre una “operación”, condujo junto a otros hasta Mineápolis, donde se sucedían las protestas por el asesinato a manos de la policía de George Floyd, un hombre negro desarmado.
Los hombres se reunieron frente a una comisaría que había sido tomada por varios cientos de manifestantes. Hunter gritó “Justice for Floyd”, alzó un fusil de estilo Kaláshnikov y disparó trece veces contra el edificio. Nadie resultó herido. Probablemente esperaba, como los Boogaloo solían escribir en línea, desencadenar una espiral de violencia entre manifestantes y policía que escalara hasta la guerra.
Unos días más tarde, el 28 de mayo, Carrillo publicó en un grupo de Facebook de Boogaloo al que acudía con frecuencia un vídeo de las protestas de Black Lives Matter. “Ya ha llegado a nuestra costa, esto tiene que ser a escala nacional… es una oportunidad excelente para atacar especialmente a los chicos de las siglas, los specialty soup bois”, escribió, en referencia a las “alphabet-soup agencies”, las agencias federales de siglas —como el FBI— cuyos agentes los Boogaloo hablaban de matar para desencadenar el conflicto total que deseaban.
Añadió: “Tenemos multitudes de gente enfadada que podemos usar en nuestro beneficio”. Otro usuario local, Robert Justus, respondió: “venga, vamos a ello”. Aquella noche, Carrillo le pidió matrimonio a su novia con un anillo de silicona de veinticinco dólares, que prometió sustituir por un diamante, y preparó una mochila para salir a la mañana siguiente.
Páginas de Boogaloo como la suya no generaron por sí solas esa sensación de conflicto civil inminente. La absorbieron de las propias plataformas de redes sociales, que estaban saturadas de ella.
Esa misma noche, el 28 de mayo, Trump, a la vez impulsando y alimentándose de ese clima, publicó en Twitter y Facebook que, si las autoridades de Mineápolis no reprimían las protestas de Black Lives Matter, él “enviaría a la Guardia Nacional y haría bien el trabajo”. Añadió: “Si hay cualquier problema, asumiremos el control; pero, cuando empiece el saqueo, empezará el tiroteo”.
Su última frase, eco de la célebre promesa que hizo en 1967 un jefe de policía de Miami de endurecer la represión en los barrios negros, parecía alentar la violencia letal en un momento en que las tensiones eran muy altas, crecían los enfrentamientos callejeros y tanto la policía como las milicias de extrema derecha estaban en condiciones de cumplirla.
Twitter añadió un aviso al mensaje de Trump, indicando que violaba las normas contra la “glorificación de la violencia”, y limitó la circulación de la publicación. Pero Zuckerberg anunció que, aunque consideraba el mensaje “divisivo e inflamatorio”, Facebook lo dejaría en línea. “Creemos que la gente debe saber si el gobierno está planeando desplegar la fuerza”, explicó.
Era una justificación extraña: amplificar una incitación con el pretexto de informar al público. Zuckerberg llamó personalmente a Trump para reiterarle las políticas de Facebook. Convocó una reunión general con toda la empresa para defender su decisión, que fue denunciada internamente por los empleados.
Las tendencias de las plataformas estaban afectando a todo el mundo, no solo a quienes se situaban en la derecha pro-Trump. Ese mismo día del mensaje de Trump sobre “saqueo y tiroteo”, un reportero de Mineápolis publicó fotos de las protestas de Black Lives Matter en la ciudad.
Usuarios de Twitter de izquierdas se preguntaron si las fotos podían poner en riesgo de detención a los manifestantes. Fuera cual fuera la pertinencia de la pregunta, la dinámica competitiva de la indignación lo eclipsó todo. Otros usuarios lograban más atención afirmando que las fotos, más que exponer a detenciones, aseguraban los asesinatos de los manifestantes.
Invocaban una teoría conspirativa desacreditada desde hacía tiempo que sostenía que las personas fotografiadas en marchas anteriores de Black Lives Matter tendían luego a morir en circunstancias misteriosas.
La indignación se desbordó, con decenas de miles de usuarios acusando al fotógrafo de poner deliberadamente en peligro vidas negras. Muchos expresaron su deseo de verlo herido o muerto; otros prometieron hacerlo ellos mismos. Algunos difundieron su número de teléfono y su dirección.
Aquella noche, una figura destacada de la izquierda publicó en Twitter fotos de la matrícula del coche de un reportero de CNN, afirmando que pertenecía a “provocadores mentirosos” que se infiltraban en Black Lives Matter al servicio de la policía. La publicación obtuvo 62.000 interacciones y probablemente llegó a millones de personas. Ese fin de semana, manifestantes atacaron a un cámara de Fox News en Washington D. C., mientras otros asaltaban la sede de CNN en Atlanta. Los incidentes de manifestantes atacando a reporteros, aunque menos frecuentes que los ataques de la policía contra periodistas, se prolongaron durante todo el verano.
La noche siguiente, el 29 de mayo, Carrillo y Justus condujeron una furgoneta hasta las afueras de una protesta de Black Lives Matter en Oakland. Tras dar varias vueltas, Carrillo se pasó a la parte trasera, abrió la puerta lateral y apuntó con un fusil de alto calibre a dos guardias de Seguridad Nacional apostados frente a un edificio federal. Disparó contra ambos y mató a uno de ellos. Él y Justus abandonaron la furgoneta, que fue hallada más tarde llena de armas y material para fabricar bombas.
En la medida en que los motivos de Carrillo fueran coherentes, al parecer esperaba que su ataque se tomara por obra de Black Lives Matter y desencadenara más violencia. Gracias a la tendencia de las redes sociales a reafirmar las lealtades partidistas, al menos vio cumplido su primer deseo. La policía ni siquiera aún había identificado públicamente a Carrillo cuando páginas pro-Trump en Facebook obtuvieron cientos de miles de interacciones al culpar de la muerte del agente de Oakland a los “disturbios” de Black Lives Matter, a “terroristas domésticos de izquierdas” y a “otra ciudad demócrata mal gestionada”.
Presentaban el suceso como el último episodio de una oleada de violencia azuzada por “los demócratas a escala nacional, los medios corporativos y el personal de campaña de Biden”, una prolongación de la tiranía de los “confinamientos demócratas” y de unas minorías fuera de control.
En los días siguientes, Carrillo intercambió mensajes por WhatsApp con otros miembros del grupo, entre ellos Hunt, que se encontraba escondido tras haber disparado contra la comisaría de Mineápolis, para planear nuevos actos de violencia. Pero, una semana después del ataque, la policía localizó a Carrillo en su casa, en un pequeño pueblo rural llamado Ben Lomond.
Cuando llegaron, él ya estaba en una ladera cercana, aguardando en emboscada. Disparó repetidamente con un AR-15 artesanal y lanzó explosivos caseros, mató a un agente e hirió a varios más. Había enviado mensajes a sus amigos pidiendo refuerzos, pero, después de meses de fanfarronear en los chats, lo ignoraron.
Carrillo, herido por los disparos de respuesta, huyó en un coche robado, pero fue detenido enseguida. La policía descubrió que había escrito “boog” con su propia sangre en el capó. El tiroteo se había producido a menos de cuarenta y cinco millas del campus de Facebook.
Carrillo, que sigue sin mostrar arrepentimiento, se casó más tarde, en una ceremonia en la cárcel, con la novia a la que había pedido matrimonio la víspera de los asesinatos. Su amigo Robert Justus, también detenido, ha declarado ante los fiscales que Carrillo le obligó a acompañarle.
En enero de 2022, la hermana de uno de los agentes asesinados demandó a Facebook, alegando que la empresa permitió conscientemente que sus algoritmos promovieran y facilitaran el extremismo violento que condujo a la muerte de su hermano. Aunque las posibilidades de prosperar de la demanda son escasas, esta refleja la percepción de que la aparente complicidad de Silicon Valley en la descomposición del país durante 2020 no podía seguir ignorándose: una percepción que, a las pocas horas del crimen de Carrillo, ya había empezado a extenderse a las propias plantillas de las compañías.
Fricción
El lunes 1 de junio, una semana después del asesinato de George Floyd y tres días después del ataque de Carrillo, unos cientos de empleados de Facebook activaron mensajes automáticos de ausencia para anunciar que, durante un día, se negaban a trabajar.
Algunos firmaron peticiones reclamando a sus jefes cambios de personal y de políticas. Muchos, por primera vez, condenaron públicamente a su empresa. “La inacción de Facebook al no retirar la publicación de Trump que incita a la violencia me hace sentir vergüenza de trabajar aquí”, tuiteó Lauren Tan, ingeniera. “Esto no está bien. El silencio es complicidad”.
El paro simbólico se convocó, en principio, para protestar por la negativa de Facebook, unos días antes, a retirar la publicación de Trump en la que amenazaba con enviar a la Guardia Nacional a disparar contra los manifestantes por la justicia racial. Pero, como muchos señalaron, aquello era solo la última afrenta.
En un momento de creciente violencia y de desinformación sanitaria mortal, Silicon Valley, después de haber reclutado a algunos de los mejores ingenieros del mundo con la promesa de que contribuirían a “salvar el mundo”, parecía estar contribuyendo, incluso impulsando, problemas sociales que amenazaban con desgarrar Estados Unidos, exactamente igual que había ocurrido en Myanmar y Sri Lanka.
Como para subrayar el argumento de los empleados, el día del paro simbólico la historia dominante en Facebook era la desinformación que atribuía el doble asesinato cometido por Carrillo a Black Lives Matter.
El paro marcó el comienzo de una batalla pública y de alto riesgo entre las cúpulas corporativas del Valle y una alianza, en su mayoría nueva, que se alzaba contra ellas: sus propios empleados, sus propios anunciantes, destacados activistas de los derechos civiles y, más tarde, dirigentes del Partido Demócrata. Era algo cualitativamente distinto de enfrentarse a analistas externos o a programadores disidentes que hasta entonces habían encabezado las críticas al Valle. Se trataba de un desafío significativo a los intereses corporativos centrales de las plataformas, planteado, en palabras de sus participantes, en nombre de un mundo que cada vez veía más a esas empresas como una amenaza peligrosa.
Las preocupaciones sobre la desinformación electoral llevaban meses acumulándose. A finales de mayo, al día siguiente del asesinato de Floyd, Trump había publicado una serie de falsedades contra las políticas de voto anticipado en California, escribiendo: “Esta será una elección amañada”.
Después de años de dar carta blanca a Trump, Twitter por fin actuó, en cierto modo. Añadió un pequeño recuadro con la leyenda “Infórmate sobre los hechos”, que remitía a una página aparte donde se rebatían suavemente las afirmaciones del presidente. Era, sobre todo, un gesto simbólico.
Tras el paro en Facebook, y como gesto de apaciguamiento hacia la plantilla, Zuckerberg anunció que apoyaba a Black Lives Matter. Sin embargo, ese mismo día, la publicación más vista en su plataforma era un vídeo de la comentarista conservadora Candace Owens en el que afirmaba que “la brutalidad policial motivada por el racismo es un mito” y que George Floyd era “un delincuente” y “un ser humano horrible”. El vídeo fue visto 94 millones de veces, una cifra comparable a la audiencia de la Super Bowl.
A lo largo de junio empezaron a publicarse informaciones sobre Joel Kaplan, el lobista conservador en nómina de Facebook, que habría suavizado las políticas de la empresa de modo que protegían a Trump de las normas contra la desinformación y, en la práctica, facilitaban los esfuerzos del presidente por usar la plataforma para presionar a las autoridades estatales, suprimir el voto y alterar las elecciones.
Para muchos, aquello demostraba que, incluso con todo lo que había en juego, no se podía confiar en que Silicon Valley hiciera lo correcto. Los grupos de derechos civiles lanzaron entonces la campaña “Stop Hate for Profit”, presionando a los anunciantes para que boicotearan Facebook. Varias empresas y agencias publicitarias se sumaron. Algunas retiraron presupuestos publicitarios del orden de 100.000 dólares diarios.
Es poco probable que eso llegase a mermar de forma significativa los 80.000 millones de dólares anuales de ingresos publicitarios de Facebook. Pero la amenaza contra su cuenta de resultados sí inspiró algún tipo de acción, y no solo en Facebook.
A finales de junio, Facebook e Instagram prohibieron Boogaloo en sus plataformas. YouTube retiró a varios extremistas blancos prominentes, entre ellos Richard Spencer, organizador de la marcha Unite the Right, casi tres años después de los hechos de Charlottesville. Quizá lo más significativo fue que Reddit cerró dos mil comunidades acusadas de incitar al odio, incluido The_Donald, punto de encuentro oficioso de la extrema derecha en línea.
Esas medidas supusieron un punto de inflexión, un reconocimiento implícito de que alojar discursos de odio equivalía, de hecho, a una política que favorecía su difusión. De que el “buen” discurso no derrotaría de forma natural al “malo” en estas plataformas. Con todo, las expulsiones llegaron, como tantas veces antes, demasiado tarde.
La identidad y la forma de pensar insurreccional y supremacista blanca, junto con las decenas de conspiraciones y falsedades que las justificaban, eran ya endémicas, estaban incrustadas en las comunidades reales más amplias en las que las plataformas habían conseguido inculcarlas.
Los críticos de Silicon Valley siguieron presionando para lograr cambios más profundos. Un programador de Facebook, cuyo último día en la empresa coincidía con el 1 de julio, publicó un mensaje de despedida de veinticuatro minutos en el que advertía: “Facebook está haciendo daño a la gente a gran escala”. La empresa, dijo el programador, rodeado de muñecos de peluche y luciendo una serie de camisetas de Facebook de colores vivos, “está quedando atrapada en nuestra ideología de la libertad de expresión”. “Estamos fracasando. Y, lo que es peor, hemos consagrado ese fracaso en nuestras políticas”.
La creciente amenaza de que la empresa quedara manchada a ojos de los anunciantes bastó para que Zuckerberg y Sandberg se reunieran, a principios de julio, con los grupos promotores del boicot. Los líderes de derechos civiles salieron furiosos, y declararon a la prensa que se habían sentido tratados con condescendencia, con promesas vacías y sometidos a una especie de manipulación psicológica, mediante afirmaciones de progreso que parecían basarse en una comprensión deliberadamente errónea de la propia tecnología de la empresa. Su relato resultaba familiar a cualquier periodista que hubiera entrevistado a los responsables de políticas de Facebook.
Casualmente, esa misma semana se publicó una auditoría independiente de las políticas y prácticas de Facebook, que llevaba dos años preparándose. Bajo la presión pública por su papel en las elecciones de 2016 y los escándalos posteriores de privacidad, Facebook la había encargado en 2018 a un bufete especializado en derechos civiles y la había presentado desde entonces como prueba de su compromiso con la mejora.
Sin embargo, los auditores, a quienes se había concedido un nivel de acceso que Facebook sugería que demostraría que sus críticos estaban equivocados, concluyeron precisamente lo contrario: que sus algoritmos fomentaban la polarización y el extremismo, que sus políticas permitían que la desinformación electoral campase a sus anchas y que sus prácticas internas mostraban muy poca sensibilidad hacia los daños en el mundo real.
Estas acusaciones distaban de ser nuevas. Pero, formuladas ahora por los propios auditores escogidos por Facebook, basadas en parte en información interna y presentadas no en nombre de técnicos disidentes ni de académicos poco conocidos, sino por una voz respetada del derecho civil, adquirieron un peso especial ante la opinión pública como una confirmación autorizada que iba más allá de todo lo que se había dicho hasta entonces.
El informe puso a la defensiva a los dirigentes del Valle: podían descalificar a Guillaume Chaslot como un resentido o a Jonas Kaiser como un analista equivocado, pero no podían dar portazo a prestigiosos abogados de derechos civiles sin arriesgarse a nuevas rebeliones entre sus empleados o sus anunciantes.
Por fin, en agosto, Facebook y Twitter hicieron algo hasta entonces impensable: borraron una publicación de Trump. Había difundido un vídeo en el que afirmaba que los niños eran “casi inmunes” a la Covid. Poner en peligro la salud de los menores era, por fin, una línea roja. YouTube hizo lo mismo. (Es posible que las empresas esperasen que aquello funcionara como un disparo de advertencia, pero no modificó su comportamiento. Dos meses más tarde, y tras muchas más mentiras, retirarían otra de sus publicaciones por motivos muy similares).
Mientras tanto, Trump siguió beneficiándose de una promoción algorítmica cuyo valor superaba con creces el coste de cualquier tirón de orejas: en ese último mes del verano, sus cifras de interacción en Facebook superaban a las de Joe Biden por cuarenta a uno, pese a que Trump iba por detrás en las encuestas; una prueba más de que las plataformas no reflejaban la realidad, sino que creaban una propia.
Para septiembre, Estados Unidos se precipitaba hacia unas elecciones en las que parecía estar en juego la propia democracia. Trump y algunos de sus aliados insinuaban que intervendrían contra el voto por correo, que se esperaba que favoreciera a los demócratas. También dejaron caer que confiaban en que la mayoría conservadora del Tribunal Supremo revocase una eventual derrota, y que podrían negarse a entregar el poder.
El temor a la supresión del voto durante las elecciones, y a posibles episodios de violencia de grupos de vigilancia armada después de ellas, estaba muy extendido. La presidenta de la Cámara de Representantes, Nancy Pelosi, lamentando la omnipresencia de la desinformación de QAnon en Facebook, declaró: “No sé cómo el consejo de administración de Facebook o sus principales directivos pueden mirarse al espejo. Han tomado claramente una decisión. Su modelo de negocio consiste en ganar dinero con el veneno, y ese es el camino que han decidido seguir”.
Bajo presión, Facebook anunció ese mes que prohibiría que los candidatos se proclamaran falsamente vencedores y que eliminaría cualquier publicación que invocara la Covid para disuadir del voto presencial.
Impuso una sanción visiblemente más leve a una de las tácticas favoritas de Trump: los contenidos que “busquen deslegitimar el resultado de las elecciones” o “la legitimidad de los métodos de votación” se limitarían a llevar añadida una “etiqueta informativa”.
Facebook e Instagram tampoco aceptarían nuevos anuncios políticos en la semana previa a las elecciones, para impedir que se colara en el último momento contenido destinado a manipular a los votantes en las plataformas.
Instagram fue más allá. Hasta que concluyera el proceso electoral, los usuarios estadounidenses que siguieran una etiqueta, fuera cual fuese el tema, ya no podrían ordenar las publicaciones por las más recientes. “Hacemos esto para reducir la difusión en tiempo real de posibles contenidos dañinos que puedan surgir en torno a las elecciones”, decía un comunicado de prensa.
Ambos cambios, aunque pequeños, cruzaban un umbral importante: limitar funciones básicas de sus productos en beneficio de la sociedad.
Un mes antes de las elecciones, Twitter anunció las medidas más contundentes de todas las plataformas. Las cuentas con un gran número de seguidores, incluidas las de los políticos, quedarían sujetas a normas más estrictas que el resto, justo lo contrario de las dispensas especiales de Facebook.
Las publicaciones que infringieran las reglas serían retiradas o quedarían ocultas tras una etiqueta de advertencia. Trump acumulaba ya catorce de esas etiquetas, que funcionaban a la vez como verificaciones de hechos y como badenes, dificultando que los usuarios pudieran leerlas o compartirlas.
Más tarde, Twitter llegó a prohibir que los usuarios retuitearan o marcaran con “me gusta” las publicaciones de Trump que infringían las normas. Sin esos elementos sociales, el impacto de sus tuits parecía disminuir de forma considerable.
Twitter también añadió un elemento que los expertos externos llevaban tiempo reclamando: fricción. Normalmente, cualquier usuario podía compartir una publicación pulsando “retuit” y promoviéndola de forma instantánea en su propio feed. A partir de entonces, al pulsar “retuit” se abría un aviso que instaba al usuario a añadir algún comentario propio. Eso obligaba a detenerse un momento, reduciendo la facilidad con que se compartían los mensajes.
La escala de la intervención era limitada, pero su efecto fue significativo: los retuits descendieron en conjunto un 20%, y con ellos la difusión de la desinformación, según la empresa.
Twitter había ralentizado deliberadamente la interacción, yendo contra sus propios intereses financieros y contra décadas de dogma de Silicon Valley que sostenían que más actividad en línea solo podía ser algo positivo. El resultado, al parecer, fue que el mundo estuviera menos desinformado y, por tanto, algo mejor.
Lo más sorprendente fue que Twitter desactivó temporalmente el algoritmo que impulsaba los tuits especialmente virales al feed de los usuarios, incluso cuando estos no seguían a su autor. La empresa describió este esfuerzo por “ralentizar” la viralidad como “un sacrificio que merece la pena para fomentar una amplificación más reflexiva y explícita”.
Hasta donde pude averiguar, era la primera y única vez que una gran plataforma había apagado voluntariamente su propio algoritmo. Constituía una admisión implícita de justo aquello que las empresas habían evitado reconocer durante tanto tiempo: que sus productos podían ser peligrosos, que las sociedades estarían más seguras con algunos aspectos de esos productos desconectados y que tenían plena capacidad para hacerlo.
Luego llegaron las ofensivas contra QAnon. Las prohibiciones parciales de principios de año, que eliminaban ciertas cuentas o grupos, habían resultado ineficaces. Finalmente, en octubre, Facebook e Instagram impusieron vetos totales al movimiento, mientras que Twitter fue eliminando de forma progresiva las cuentas vinculadas a Q.
La directora ejecutiva de YouTube, Susan Wojcicki, se limitó a anunciar que YouTube retiraría los vídeos que acusaran a personas concretas de estar implicadas en conspiraciones relacionadas con Q con el fin de acosarlas o amenazarlas.
Ese estrecho ajuste normativo fue el único cambio de política significativo de YouTube en vísperas de las elecciones. Pero, como sucedió con Boogaloo y con tantas otras corrientes oscuras, llegó demasiado tarde.
Tras años de incubarse en las plataformas y de consolidarse como movimientos de masas, a esas comunidades extremistas las prohibiciones solo consiguieron desplazarlas a plataformas más privadas, donde pudieron deslizarse aún más hacia el extremismo. Incluso en las plataformas mayoritarias, muchas continuaron agazapadas de una forma u otra.
También en octubre, el FBI detuvo a varios miembros de Boogaloo que estaban acumulando armas y explosivos para un complot destinado a secuestrar y posiblemente asesinar a la gobernadora de Míchigan. Se habían organizado en parte a través de un grupo privado de Facebook.
La naturaleza más amplia de las plataformas, entretanto, seguía intacta. En las semanas previas a las elecciones, Facebook se llenó de llamamientos a la violencia contra los enemigos de Trump. Investigadores digitales identificaron al menos 60.000 publicaciones que invocaban actos de violencia política: “Los demócratas terroristas son el enemigo y hay que matarlos a todos”. “La próxima vez que veamos a Schiff debería ser colgando de una soga #deathforschiff”. (Adam Schiff es un congresista demócrata que dirigió el primer proceso de destitución contra Trump).
Otras 10.000 publicaciones pedían una insurrección armada si ganaba Biden. Y una cifra apabullante, 2,7 millones de mensajes en grupos políticos, instaban a la violencia en términos más generales, como “mátalos” o “dispara contra ellos”.
Era exactamente lo que yo había visto en Sri Lanka y Myanmar: un clamor creciente de sangre, explícito y al unísono, justo antes de que esas sociedades se hundieran en los mismos actos de violencia que se venían anunciando a gritos.
Pensé en Sudarshana Gunawardana, el ministro del Gobierno de Sri Lanka que, al ver cómo la incitación propagada por Facebook desbordaba su país, había lanzado en vano advertencias a los representantes sordos de la compañía. Cuando los disturbios remitieron por fin, lamentó: “Somos una sociedad, no solo un mercado”.
Ahora les tocaba a los estadounidenses suplicar a Silicon Valley, con escaso éxito, que recordara, antes de que fuera demasiado tarde, que no éramos solo un mercado del que extraer beneficios.
El día de las elecciones, dos candidatos vinculados a Q ganaron escaños en el Congreso: Lauren Boebert, de Colorado, y Marjorie Taylor Greene, de Georgia.
Greene también había repetido las afirmaciones de Alex Jones según las cuales los tiroteos escolares eran montajes y, como recordatorio de que la violencia política estaba en el centro de la causa, había dado “me gusta” en Facebook a una publicación que pedía que Barack Obama fuera ahorcado y a otra que instaba a que a la presidenta de la Cámara de Representantes, Nancy Pelosi, le metieran “una bala en la cabeza”.
Sin embargo, el ascenso de QAnon quedó eclipsado para los estadounidenses por otro acontecimiento: Trump había perdido.
Dos días después de la votación, cuando la mayoría de los medios aún no habían proclamado oficialmente el resultado, Facebook anunció que había eliminado un grupo dedicado a la desinformación electoral. Se llamaba “Stop the Steal” y sostenía que la supuesta derrota de Trump era en realidad un golpe de Estado urdido por fuerzas en la sombra.
La página sumó 338.000 miembros en menos de un día, convirtiéndose en una de las que más rápido había crecido en la historia de Facebook. Se llenó de teorías conspirativas, llamamientos a la violencia y, muy especialmente, referencias a QAnon.
Aun así, con Trump humillado y a punto de abandonar el cargo, cabía pensar que el extremismo en línea que llevaba tanto tiempo alentando también podría disiparse. Al fin y al cabo, Silicon Valley siempre había sostenido que sus plataformas se limitaban a reflejar los sentimientos y acontecimientos del mundo real. Quizá lo peor ya había pasado.
La Gran Mentira
Durante todo aquel otoño, Richard Barnett, un contratista de la construcción de sesenta años, aficionado a las armas y residente en un pequeño pueblo de Arkansas, no había dejado de caer en la trampa.
Obsesionado con Facebook, compartía una y otra vez conspiraciones ya virales sobre la Covid, las vacunas y Trump que circulaban por la plataforma: un superusuario típico de Facebook, muy parecido a Rolf Wassermann, el artista alemán que amplificaba cualquier cosa que la plataforma pusiera delante de sus ojos. Pero Barnett estaba absorbiendo un ecosistema en redes sociales mucho más tóxico que el alemán.
En septiembre, asistió a una protesta contra las restricciones por la Covid en la capital de su Estado, convocada a través de Facebook, portando un AR-15. Según contaría después un amigo, llegó a creer que poderes en la sombra planeaban aprovechar la pandemia para implantar microchips en la frente de los ciudadanos, un eco vago de las creencias difundidas por “Plandemic” y QAnon.
Organizó un grupo en apoyo de la organización benéfica Save Our Children, cuyo trabajo contra la trata infantil había sido cooptado por QAnon. En una foto de una reunión en octubre, él y una docena de personas más posaban con rifles de estilo militar delante de un cartel que decía “LOS PEDÓFILOS MUERTOS NO REINCIDEN”, una referencia cifrada a los demócratas.
Era representativo de la horda de usuarios de redes sociales —algunos vinculados a milicias o a grupos de QAnon, otros, como Barnett, simplemente arrastrados por el algoritmo— que, durante todo 2020, se habían estado preparando para las grandes batallas que sus conspiraciones les sugerían que se acercaban gloriosamente.
Cuando empezaron a circular publicaciones virales en Facebook asegurando que la victoria de Biden era fraudulenta, estaban preparados para creerlo, e, incluso para actuar.
“Tenemos que poner freno a este gobierno corrupto”, escribió un usuario tres días después de las elecciones en un grupo de Facebook de tipo milicia cuyos decenas de miles de miembros ya se autodefinían como “listos y armados”. Se trasladaron a una página privada para poder planear mejor. “Si no los eliminamos ahora, ellos nos eliminarán a nosotros”, escribió uno. Otro respondió: “Es hora de acabar con ellos”.
Las milicias y los grupos de Q, pese a su enorme influencia en las plataformas, seguían siendo solo una pequeña facción hipercomprometida de los partidarios de Trump. Pero los sistemas de las plataformas empezaron enseguida a arrastrar hacia los extremistas a masas mucho más amplias. Y lo hicieron promoviendo contenidos que repetían la misma mentira que Trump estaba utilizando para intentar permanecer en el poder y que había animado al fugaz grupo Stop the Steal: Trump había ganado, los demócratas habían organizado un fraude electoral masivo y los patriotas tendrían que anular unos resultados falsos.
Conocida como la Gran Mentira, es imposible saber hasta dónde habría llegado sin las redes sociales. Pero las plataformas la amplificaron a una escala que habría sido imposible por otros medios y, quizá lo más importante, entrenaron a los usuarios para repetírsela entre ellos como una verdad urgente.
En la semana posterior a las elecciones, las veinte publicaciones con más interacciones en Facebook que contenían la palabra “elección” estaban firmadas por Trump. Las veinte llevaban una etiqueta que advertía de que el contenido era engañoso, sin que ello pareciera surtir mucho efecto. Sus publicaciones ocupaban veintidós de los veinticinco primeros puestos entre las más compartidas de Estados Unidos en Facebook.
Los rumores que daban validez a la mentira se viralizaban una y otra vez. Los usuarios veían mensajes que aseguraban que Biden había admitido que el fraude electoral había sido generalizado. Se decía que las papeletas demócratas en Pensilvania llevaban nombres de personas fallecidas. Un canal de YouTube de derechas informó de que los trabajadores de los colegios electorales en Detroit habían sido descubiertos entrando maletas llenas de papeletas fraudulentas. Otro canal dijo a sus 1,8 millones de suscriptores que los institutos de sondeo habían retirado sus anuncios de que Biden había ganado. (Cuando un periodista preguntó al responsable del canal por qué YouTube no había hecho cumplir con él sus propias normas contra la desinformación electoral, contestó: “YouTube se ha portado genial”). Un tuitero inventó noticias sobre papeletas a favor de Trump “tiradas” en Michigan. Una cuenta destacada de desinformación, @Breaking911, anunció que un trabajador postal díscolo había huido a Canadá con papeletas robadas.
A mediados de noviembre, los investigadores de Facebook llegaron a un descubrimiento estremecedor: el 10% de todas las visualizaciones de contenido político en Estados Unidos —es decir, el 2% del total de visualizaciones en la plataforma— correspondían a publicaciones que afirmaban que las elecciones habían sido robadas.
En una plataforma de esa envergadura, con miles de millones de publicaciones diarias que abarcan todas las noticias de todos los medios de todas las ciudades, miles de millones de grupos de discusión sobre cualquier tema imaginable, charlas triviales, fotos familiares, anuncios de negocios, en fin, la experiencia humana en pleno, que una sola afirmación —y, en particular, una afirmación peligrosamente falsa— lograra arrollar de ese modo el ruido de fondo resultaba impactante.
YouTube no estaba mejor. Newsmax TV, un canal que promovía con intensidad conspiraciones sobre fraude electoral demócrata, vio cómo sus visualizaciones se disparaban de 3 millones en octubre a la impresionante cifra de 133 millones en noviembre.
Chaslot, que volvía a seguir las recomendaciones de YouTube, descubrió que la plataforma empujaba Newsmax a los usuarios después de que estos hubiesen visto medios tradicionales como la BBC, canales de izquierdas e incluso “The Ellen DeGeneres Show”.
De pronto, Newsmax se situó en el 1% de los canales más recomendados de YouTube. Chaslot encontró el mismo patrón con New Tang Dynasty TV, un lodazal de desinformación pro-Trump sobre las elecciones dirigido por el movimiento religioso Falun Gong, cuya audiencia se multiplicó por diez.
Los vídeos de YouTube que difundían la Gran Mentira acumularon 138 millones de visualizaciones en la semana posterior a las elecciones. En comparación, 7,5 millones de personas vieron la cobertura de la noche electoral en todas las grandes cadenas de televisión juntas.
A principios de diciembre, pocos días después de que Chaslot hiciera públicos sus hallazgos, YouTube anunció por fin que eliminaría los vídeos con afirmaciones falsas de fraude electoral, pero, de forma desconcertante, no retiraría los vídeos falsos ya publicados ni castigaría a los infractores hasta después del 20 de enero.
La plataforma siguió saturada de mentiras sobre las elecciones. Cualquiera que obtuviera sus noticias a través de las redes sociales tenía motivos de sobra para llegar a la conclusión —como hizo Richard Barnett, el superusuario de Arkansas— de que existían “montañas de pruebas”, según escribió en su página de Facebook, de que Trump había ganado en realidad.
Barnett amplificó la conspiración entre sus amigos, activando su indignación del mismo modo que la mentira había activado la suya: una pieza más, diligente, en la maquinaria de las redes sociales.
El 19 de diciembre, mes y medio después de las elecciones, Trump tuiteó: “Gran protesta en Washington D. C. el 6 de enero. Estad allí, ¡será salvaje!”.
Ese día, el Congreso debía certificar la victoria de Biden. Trump estaba presionando a los legisladores para que anulasen los votos electorales de Biden y revocasen su victoria en lo que equivaldría, de hecho, a un golpe de Estado.
Algunos congresistas republicanos ya habían dado señales de que estaban dispuestos a hacerlo, y, a la postre, decenas de ellos lo hicieron. Trump y sus aliados razonaban que quizá un mitin ante la Casa Blanca podría servir para presionar a los indecisos.
En internet, muchos de los partidarios de Trump interpretaron su mensaje como una validación de todo lo que llevaban meses diciéndose unos a otros. La camarilla demócrata que abusaba de niños estaba a punto de ser desenmascarada y probablemente ejecutada. Trump llamaría al Ejército, y las milicias temerosas de Dios debían estar allí para respaldarle.
“#Patriots tiene que ser tan violento como BLM/Antifa. ¡Esa es nuestra luz verde!”, escribió un miembro de los Proud Boys, un grupo nacionalista blanco, en Parler, un clon de Twitter que se había convertido en la plataforma favorita de la extrema derecha tras sus expulsiones de las redes mayoritarias.
En TheDonald, un sitio de chat inspirado en la sección de Reddit del mismo nombre que había sido vetada, más del 80% de las conversaciones que mencionaban el evento del 6 de enero incluían llamamientos explícitos a la violencia. Algunos usuarios publicaban planos del Capitolio, señalando túneles y accesos.
A finales de diciembre, muchos usuarios estaban convergiendo en torno a un plan. Algunos llevarían armas y explosivos a Washington. Otros se encargarían de azuzar a una multitud lo bastante numerosa como para desbordar a la policía del Capitolio. Asaltarían el edificio, deteniendo por la fuerza la certificación del voto. Y luego, como escribió un usuario de Parler, “vamos a matar al Congreso”.
Todo un universo de grupos de Facebook, alzándose como uno solo, promocionaba el mitin de Trump como la gran batalla para la que se habían estado preparando. Memes con formato de panfleto, omnipresentes en la plataforma, llamaban a acudir, a menudo con lemas de milicia que anunciaban el inicio de una revuelta armada. Muchos incluían consignas de QAnon que lo describían como “la tormenta”, la purga sangrienta que Q había profetizado. Y llevaban un hashtag que reproducía los planes de los foros de extrema derecha a los que remitían muchos de esos grupos: #OccupyCongress.
“¡Este es NUESTRO PAÍS!”, escribió Barnett en su página de Facebook unos días antes de Navidad, instando a sus seguidores a acompañarlo al mitin. Ese mismo día publicó una foto suya con un rifle, acompañada de un pie de foto que decía que había venido al mundo pataleando y gritando, cubierto de sangre, y que estaba dispuesto a abandonarlo de la misma manera.
Unos días después, el 2 de enero, llevó una pancarta con el lema “Banana Republic USA” a un mitin de “Stop the Steal” en su pequeña ciudad de Arkansas, donde contó a un periodista sus aspiraciones de restituir la supuesta victoria de Trump. “Si no te gusta, mándame a alguien, pero no voy a caer fácilmente”.
Como en tantos casos anteriores, ya fuera con incels o con Boogaloo, lo que había empezado como fanfarronería en línea para encontrar comunidad en medio de la desorientación se convirtió, en plataformas que recompensaban la escalada y creaban una falsa sensación de consenso en torno a las opiniones más extremas, en una voluntad sincera de pasar a la acción.
“Hoy he tenido una conversación muy difícil con mis hijos: papá podría no volver a casa desde Washington D. C.”, escribió un usuario en TheDonald el día antes del mitin. Su mensaje, que recibió 3.800 votos positivos, decía que tenía intención de cumplir su juramento militar de “defender a mi país de todos sus enemigos, tanto extranjeros como nacionales”.
El foro se llenó de otras historias similares. Eran mensajes de martirio, casi calcados de los que los yihadistas suicidas grababan en vídeo o publicaban en redes sociales el día antes de cometer sus actos. “Hoy me he despedido de mi madre. Le he dicho que he tenido una buena vida”, escribió otra usuaria. “Si nuestros ‘líderes’ hacen lo incorrecto y tenemos que asaltar el Capitolio, lo haré. Nos vemos allí, pedes (abreviatura de centipedes —ciempiés—, el mote con el que los miembros del foro se llamaban entre sí)”, concluía, firmando con una referencia al apodo inspirado por YouTube y Reddit que había cohesionado a la comunidad durante años.
Los demás respondieron con decenas de mensajes de apoyo: “Esos edificios nos pertenecen… Si llega el caso, lo que hay que asaltar es la Cámara de Representantes, no la Casa Blanca… Traed la madera, levantad la horca frente al Congreso, preparaos mentalmente para sacarlos de allí y colgarlos… Yo llevaré el arma a la vista y mis amigos también. No hay suficientes policías en Washington D. C. para detener lo que se avecina”.
Barnett llegó temprano a los alrededores de la Casa Blanca el 6 de enero. Mientras esperaba a que Trump apareciera, sacó el móvil y publicó un vídeo en Facebook. “Nos estamos juntando”, dijo. “Preparad la fiesta.”
Hacia el mediodía, al sur de la Casa Blanca, Trump comenzó a hablar. Al terminar su discurso, dijo a la multitud: “Vamos a ir caminando hasta el Capitolio”, dando a entender que ese sería el siguiente paso en su esfuerzo, que ya llevaba semanas, por impedir que el Congreso certificara los votos electorales, como estaba haciendo en ese mismo momento.
“Porque nunca recuperaréis nuestro país con debilidad. Tenéis que demostrar fuerza, y tenéis que ser fuertes”, dijo Trump, entre los vítores del público. Miles de personas cruzaron hacia el Capitolio, aunque sin Trump, que, pese a asegurar “estaré allí con vosotros”, había regresado a la Casa Blanca para verlo por televisión.
La otra líder de la insurrección —y quizá su verdadera líder— estaba ya sobre el terreno, metida en los bolsillos de cada participante con un teléfono inteligente. El 6 de enero fue la culminación del trumpismo, sí, pero también de un movimiento construido en y por las redes sociales. Fue un acto planificado durante días sin planificadores. Coordinado entre miles de personas sin coordinadores. Y ahora se ejecutaría mediante una voluntad colectiva guiada digitalmente.
Cuando la gente fue llegando al Capitolio, encontró a manifestantes que habían llegado antes increpando ya a los pocos agentes que custodiaban el edificio. En los jardines se había levantado una horca de madera con una soga vacía. A dos manzanas de allí, la policía descubrió una bomba casera en la sede del Comité Nacional Republicano. Luego otra en la del Comité Nacional Demócrata.
La presencia policial seguiría siendo exigua durante buena parte del día. Las autoridades del distrito y federales, pese a haber sido advertidas de la naturaleza de las conversaciones en línea, sencillamente no vieron el mitin de Trump como la amenaza que era. Incluso cuando la violencia ya había comenzado, su respuesta se retrasó varias horas por disfunciones burocráticas, según constató un informe del inspector general. Varios altos cargos dimitieron después, caídos en desgracia.
A medida que los asistentes al mitin se sumaban a las multitudes que empujaban contra las vallas, la aritmética simple de la situación tuvo que hacerse evidente. Eran miles: enfurecidos, gritando, muchos con cascos y equipamiento militar de excedentes. Su único obstáculo, en algunos accesos, eran barreras metálicas de unas veinte libras (algo más de nueve kilos), custodiadas por tres o cuatro agentes con gorras de béisbol, tras los cuales los senderos peatonales quedaban abiertos hasta el Capitolio.
En menos de una hora desde la arenga de Trump, la multitud superó el perímetro exterior. Una hora después, irrumpieron en el edificio. Los legisladores, en el interior, mientras realizaban la certificación del voto, apenas tenían idea de que algo iba mal hasta que la policía entró a toda prisa y atrancó las puertas tras de sí.
“¡Estamos dentro, estamos dentro! ¡Derrick Evans está en el Capitolio!”, gritó Derrick Evans, un diputado estatal de Virginia Occidental, a su teléfono móvil, retransmitiendo en directo por Facebook, donde llevaba días publicando sobre el mitin.
En prácticamente todas las fotos del asalto al Capitolio se ve a alborotadores con el teléfono en alto. Estaban tuiteando, subiendo imágenes a Instagram, retransmitiendo en directo por Facebook y YouTube.
Igual que la matanza de Christchurch un año antes o los asesinatos de incels el año anterior, se trataba de una puesta en escena, concebida y ejecutada para y en las redes sociales.
Era tan producto de la web social que muchos de sus participantes dejaron de ver diferencia alguna entre la vida que llevaban en línea y la insurrección real que estaban cometiendo como prolongación de las identidades que esas plataformas habían moldeado.
Muchos de los que forzaron la entrada llevaban camisetas y gorras con el logotipo de QAnon. Jake Angeli, un “obseso” de las redes sociales de treinta y dos años, iba maquillado con la bandera estadounidense en la cara, cuernos de animal y un tocado de piel, y se presentaba como “Q shaman”. Otros vestían ropa de camuflaje de estilo militar con parches con los nombres de milicias de Facebook. Uno se ocultaba detrás de una enorme máscara de Pepe the Frog.
“Empujábamos, empujábamos y empujábamos, y gritábamos ‘adelante’ y gritábamos ‘a la carga’”, narraba en directo por Facebook Jenny Cudd, florista de treinta y seis años de Texas occidental, mientras entraba en los pasillos. “Subimos hasta lo alto del Capitolio y había una puerta abierta y entramos”, añadió. “Derribamos la puerta de la oficina de Nancy Pelosi y alguien robó su mazo y se hizo una foto en la silla, haciendo una peineta a la cámara”.
El hombre al que había visto era Richard Barnett, el conspiracionista de Facebook de Arkansas. Y la foto que se hizo —los pies sobre el escritorio de Pelosi, en vaqueros y franela, los brazos extendidos en aparente júbilo, un teléfono móvil iluminado en la mano— se convirtió, antes incluso de que terminara el asalto, en símbolo de la irrealidad y la humillación de aquel día.
Barnett, sonriendo a todos nosotros, se convirtió en el rostro de algo grotesco en la vida estadounidense, algo cuya fuerza muchos no habíamos comprendido hasta ese momento, cuando entró en los pasillos del poder y se puso cómodo.
Algunos habían ido a hacer algo más que retransmitir en directo. Un grupo de ocho hombres y una mujer, vestidos con equipo de tipo militar sobre camisetas de los Oath Keepers, atravesó a empujones la multitud y penetró en el Capitolio. Se mantenían en contacto a través de Zello, una aplicación de pulsar para hablar, y de Facebook, la plataforma en la que su milicia había crecido y reclutado.
“Estáis ejecutando una detención ciudadana. Detened a esta asamblea, tenemos causa probable por actos de traición, fraude electoral”, dijo uno de ellos. “Dentro”, escribió uno en Facebook. “Todos los legisladores están en los túneles, tres plantas abajo”, respondió otro. Un tercero lanzó una orden: “Todos los miembros están en los túneles bajo el Capitolio, selladlos dentro. Abrid el gas”.
Otros compartían la intención de los Oath Keepers. Peter Stager, un vecino de Arkansas de cuarenta y un años, dijo en un vídeo en Twitter: “Todos los que están ahí dentro son traidores culpables de traición” y “La única solución para lo que hay en ese edificio es la muerte”. Subió las escaleras del Capitolio cargando una bandera estadounidense, encontró a un agente que había sido derribado por la multitud y le golpeó con el asta de la bandera.
Angeli, el “Q shaman”, dejó una nota para Pence en su mesa en el hemiciclo del Senado: “Es solo cuestión de tiempo, la justicia está en camino”. Pence se había librado de los invasores por apenas unos metros.
Más tarde, varios legisladores contaron que se habían refugiado en despachos interiores o tras puertas cerradas con llave, temiendo por su vida mientras las turbas enfurecidas recorrían los pasillos.
Dominic Pezzola, un miembro de los Proud Boys acusado posteriormente de romper una ventana del Capitolio con un escudo policial, “dijo que habrían matado a cualquiera que hubieran podido atrapar, incluida Nancy Pelosi”, según relató un confidente del FBI.
El informante afirmó que Pezzola y sus amigos planeaban volver a Washington para la investidura y “matar a todos y cada uno de los ‘hijos de puta’ que pudieran”. Antiguos amigos contaron a Vice Newsque Pezzola se había vuelto hiperactivo en Facebook; uno de ellos lo describió como alguien que había caído por una “madriguera” de las redes sociales.
Cinco personas murieron durante la insurrección. Ninguna fue atacada de forma específica; la violencia desatada de la muchedumbre descontrolada acabó con sus vidas. Brian Sicknick, un policía de cuarenta y dos años que fue arrollado por la multitud y rociado dos veces con gas pimienta, regresó a la comisaría, se desplomó y murió al día siguiente. Un médico forense atribuyó el derrame cerebral que lo mató a causas naturales, agravadas por la violencia.
Los demás eran ellos mismos miembros de la turba —como tantos otros arrastrados por causas extremistas, simultáneamente participantes y víctimas—. Kevin Greeson, un usuario de Parler de cincuenta y cinco años, simpatizante de los Proud Boys y vecino de Alabama —que había publicado “Cargad las armas y salid a la calle”—, murió de un infarto entre la multitud. Benjamin Philips, un hombre de cincuenta años de Pensilvania que había puesto en marcha una red social alternativa llamada Trumparoo, murió de un derrame cerebral. Roseanne Boyland, una georgiana de treinta y cuatro años, usuaria compulsiva de Facebook, se desplomó en una avalancha humana en un túnel del Capitolio y murió. La familia de Boyland afirmó que había llegado a la extrema derecha en línea, y luego a QAnon, buscando sentido tras una larga lucha contra la drogodependencia.
Luego estaba Ashli Babbitt, una californiana de treinta y cinco años, veterana de la Fuerza Aérea y dueña de una empresa de suministros para piscinas, que había reorganizado su vida en torno a QAnon y publicaba más de cincuenta tuits al día. Babbitt, que llevaba una bandera de Trump a modo de capa, intentó pasar a la fuerza por una ventana de cristal rota en una puerta atrincherada y, a escasos metros de los legisladores que su comunidad insistía en que debían ser ejecutados, fue abatida de un disparo por un agente de la policía del Capitolio. Murió en el acto.
Como muchos otros en la multitud, John Sullivan, un usuario intensivo de redes sociales, grabó la muerte de Babbitt. “Esto me ha conmovido, me ha puesto a mil”, dice Sullivan en la grabación. Cuando Babbitt se desploma hacia atrás entre la multitud, con la sangre manando de su boca, él exclama, admirado: “Tío, esta mierda se va a hacer viral”.
En el césped del Capitolio, Matthew Rosenberg, un reportero de The New York Times que había acudido a toda prisa para cubrir el caos, se topó con Barnett, que ya era reconocible por la foto tomada en el despacho de Pelosi apenas unos minutos antes.
Barnett había salido a la explanada, con la camisa ahora desgarrada tras algún forcejeo dentro del Capitolio, blandiendo una carta tomada del escritorio de Pelosi. Hablando sin reparos con Rosenberg, agitó orgulloso la carta y le dijo: “Le dejé una nota desagradable, puse los pies sobre su mesa y me rasqué los huevos”. Luego se perdió de nuevo entre la multitud, que ahora deambulaba con calma frente al Capitolio saqueado, bebiendo cerveza y agitando banderas, con aire de victoria.
Después, con cientos de personas detenidas (entre ellas, el propio Barnett) y con Trump sometido a un segundo impeachment, las ondas de choque se prolongarían durante meses. Pero antes incluso de que terminara el asalto, ya habían llegado hasta Silicon Valley. “¿Podemos ver algo de valentía y acciones reales por parte de la dirección ante este comportamiento?”, escribió un empleado de Facebook en el tablón interno de mensajes de la empresa mientras se desarrollaba el asalto. “Su silencio es, como mínimo, decepcionante y, como máximo, criminal”.
En una cascada de mensajes internos, los empleados expresaron su furia por la decisión de Facebook de mantener en línea una publicación de Trump, escrita en pleno asalto, que animaba, con una complicidad apenas disimulada, a seguir adelante: “Estas son las cosas y los acontecimientos que suceden”, escribió, cuando una “sagrada victoria aplastante” les es “arrebatada a grandes patriotas”.
La relación de la empresa con sus aproximadamente 50.000 trabajadores ya había tocado fondo a raíz de los conflictos del año anterior. Ahora, al permitir Facebook que Trump usara la plataforma para azuzar una insurrección en curso, la frustración estalló. “Tenemos que cerrar ahora mismo su cuenta. Este no es un momento para medias tintas”, escribió otro empleado. Pero, en lugar de actuar contra Trump, la empresa bloqueó los comentarios en el debate interno.
Al día siguiente, el sindicato de trabajadores de Alphabet, que se había constituido apenas esa misma semana, difundió un comunicado condenando la inacción de sus empleadores. (Alphabet es la empresa matriz de Google y YouTube). “Las redes sociales han envalentonado al movimiento fascista que crece en Estados Unidos y somos especialmente conscientes de que YouTube, un producto de Alphabet, ha desempeñado un papel clave en esta amenaza creciente”, escribieron. Los trabajadores de Alphabet, añadían, habían advertido en repetidas ocasiones a los directivos sobre el papel de YouTube en el “odio, el acoso, la discriminación y la radicalización”, pero habían sido “ignorados o recompensados con concesiones meramente simbólicas”. Instaban a la compañía, como mínimo, a “hacer que Donald Trump rinda cuentas ante las propias normas de la plataforma”.
Se produjo, si no un vuelco completo en el Valle, sí al menos un momento fugaz de ajuste de cuentas. Chris Sacca, uno de los primeros inversores de Twitter, tuiteó: “Tenéis sangre en las manos, Jack y Zuck. Durante cuatro años habéis justificado este terror. Incitar a una traición violenta no es un ejercicio de libertad de expresión. Si trabajas en esas empresas, también es responsabilidad tuya. Cerradlo”.
Cuando le preguntaron por qué había señalado también a los empleados, Sacca respondió: “Francamente, las únicas personas a las que escuchan son los empleados que les rodean. En el sector tecnológico, si pierdes talento, pierdes poder”.
Al día siguiente del asalto, Facebook anunció que bloquearía a Trump en sus servicios al menos hasta la investidura, dos semanas más tarde. Al día siguiente, mientras Trump seguía tuiteando en apoyo de los insurrectos, Twitter también le cortó el acceso. YouTube, el último gran bastión, se sumó cuatro días después. La mayoría de los expertos y buena parte de la opinión pública coincidían en que vetar a Trump era a la vez necesario y tardío.
Aun así, resultaba innegablemente incómodo que esa decisión recayera en manos de unos pocos ejecutivos de Silicon Valley. Y no solo porque fueran actores corporativos no elegidos en las urnas, sino porque las decisiones de esos mismos ejecutivos habían contribuido a llevar la crisis de las redes sociales hasta ese punto.
Tras años de que el sector apaciguara a Trump y a los republicanos, el veto fue ampliamente percibido como una maniobra interesada. Al fin y al cabo, se aplicó tres días después de que los demócratas se hicieran con el control del Senado, además de la Cámara de Representantes y la Casa Blanca.
Los demócratas, cuya indignación no hacía sino crecer, veían el veto como una medida puramente cosmética, adoptada solo cuando la salida de Trump del poder era ya un hecho consumado.
La campaña de Biden había enviado durante meses cartas privadas a Facebook, expresando primero preocupación y luego indignación ante lo que consideraba los reiterados fracasos de la empresa a la hora de actuar. “Nunca he sido un fan de Facebook, como probablemente sabrá”, le dijo Biden antes al consejo editorial del New York Times, dejando caer que su administración podría revocar ciertas protecciones jurídicas de que gozan las plataformas. “Nunca he sido un gran admirador de Zuckerberg. Creo que es un verdadero problema”.
Al día siguiente de la investidura de Biden, dos congresistas demócratas enviaron cartas a los directores ejecutivos de Facebook, Google, YouTube y Twitter. Eran Tom Malinowski, que había sido un combativo responsable de derechos humanos en el Departamento de Estado, y Anna Eshoo, representante desde 1993 del distrito californiano que incluye Silicon Valley.
Durante décadas, los líderes demócratas habían sido valedores entusiastas del Valle. Ahora, la propia congresista de esas empresas cofirmaba una carta en la que les decía: “Tal vez no haya una sola entidad más responsable de la difusión masiva de teorías conspirativas peligrosas ni de la inflamación de los agravios antigubernamentales que la que usted puso en marcha y dirige hoy”.
Las cartas atribuían buena parte de la responsabilidad de la insurrección a las empresas. “El problema fundamental”, escribieron a los consejeros delegados de Google y YouTube, “es que YouTube, como otras plataformas de redes sociales, ordena, presenta y recomienda la información a los usuarios suministrándoles el contenido más proclive a reforzar sus sesgos políticos preexistentes, especialmente aquellos enraizados en la ira, la ansiedad y el miedo”.
Las cartas dirigidas a Facebook y Twitter eran similares. Todas exigían cambios de política de gran alcance y concluían con la misma advertencia: que las empresas “inicien un replanteamiento fundamental de la maximización de la participación del usuario como base de la clasificación y la recomendación algorítmica”.
El lenguaje señalaba de forma inequívoca que los demócratas habían asumido la tesis defendida desde hacía años por investigadores, científicos sociales y voces disidentes del propio Valle: que los peligros de las redes sociales no se reducen a moderar mejor o retocar algunas normas, sino que están arraigados en la naturaleza misma de las plataformas, y son lo bastante graves como para amenazar a la propia democracia estadounidense.
Se produjo además otro cambio aquel mes de enero: QAnon prácticamente se desmoronó. “Lo dimos todo. Ahora tenemos que mantener la cabeza alta y volver a nuestras vidas lo mejor que podamos”, publicó la mañana de la investidura de Biden, Ron Watkins, el administrador de 8chan (rebautizado ahora como “8kun”) a quien muchos consideraban el autor del material de Q.
En Telegram —una aplicación social que había ganado popularidad entre los seguidores de QAnon a medida que Twitter introducía más fricción— instó a sus seguidores a respetar la legitimidad de Biden. Añadió: “Al entrar en la próxima administración, por favor recordad a todos los amigos y los momentos felices que hemos compartido en estos últimos años”.
Watkins estaba, en la práctica, diciendo al movimiento —que se calculaba de millones de personas, todas en tensión ante la inminencia de una batalla final contra las fuerzas del mal responsables de todos los males de sus vidas— que se retirara. Después de aquello, Q, que ya llevaba misteriosamente en silencio desde el 8 de diciembre, dejó de publicar.
La sensación de final impregnaba el ambiente. Un moderador de 8kun borró los archivos del foro “QResearch”, escribiendo: “No hago más que practicar la eutanasia con algo que en su día quise muchísimo”.
Algunos empezaron a publicar mensajes de despedida. Otros trataban de comprender: “Moderadores, por favor, explicad por qué Biden no ha sido detenido aún”. Uno comparaba ver la investidura de Biden con “ser un crío y ver un regalo enorme bajo el árbol… para abrirlo y darte cuenta de que siempre fue un trozo de carbón”.
Sin plataformas generalistas que aceleraran su causa o la entrelazaran con el resto de la red social, los creyentes que quedaban tenían muy pocos espacios en los que volcar sus energías antaño formidables. Daban vueltas y vueltas, buscando una validación que nunca llegaba, ansiando una resolución para la crisis psicológica que años de radicalización habían abierto en ellos.
“TODO va a suceder en los próximos 45 minutos”, escribió un usuario en un foro de Q durante la jura de Biden. Los demócratas en el escenario, prometía, “serán arrestados en directo por televisión mientras decenas de millones los contemplan asombrados”. Sería “el día más grande desde el Día D” y “¡Estados Unidos estará unido en una celebración!”.
Cuando la ceremonia transcurrió con normalidad, otro usuario le preguntó si se encontraba bien. Él insistió en que la victoria seguía en camino y que, con ella, llegaría el retorno a la vida que le habían arrebatado. “He perdido amigos y una novia en el último año porque se negaban a ver la verdad, ahora por fin estoy siendo reivindicado”, escribió. “Pronto todos volverán y se disculparán, este es el día más feliz de mi vida”.
Sobre el autor:
Max Fisher es periodista y escritor especializado en política internacional y en el impacto de la tecnología sobre la democracia. Fue reportero e investigador en The New York Times y anteriormente en The Washington Post y Vox, donde se centró en conflictos, autoritarismos y dinámicas globales de desinformación. Es autor de The Chaos Machine: The Inside Story of How Social Media Rewired Our Minds and Our World (2022)
* Imagen: 6 de enero de 2021.
* Fuente: “Infodemic”, capítulo del libro The Chaos Machine The Inside Story of How Social Media Rewired Our Minds and Our World (Hachette Book Group, 2022), de Max Fisher. Traducción: ‘Hypermedia Magazine’.








