Maisa sabe muy poco sobre algoritmos, pero siente su presencia en forma de intrusos o incluso de acosadores. Cuenta una historia muy común: está buscando teléfonos móviles en la web de una tienda en línea y, en cuanto cierra la página, empiezan a aparecer anuncios de esos mismos teléfonos en su Facebook, algo que le irrita y le asusta un poco, porque siente que el Gran Hermano la vigila.
Cuando Maisa utiliza servicios digitales, no lee las políticas de privacidad ni los términos y condiciones de uso; en cualquier caso, aunque lo hiciera, puede que no comprendiera las prácticas de tratamiento de datos —reales y potenciales— que allí se describen.
Sus sentimientos de aprensión tienen que ver con la inseguridad respecto a la naturaleza de la información que se recoge sobre ella, quién la recoge y con qué propósito.
Las prácticas de vigilancia de las empresas se entrelazan, en la experiencia vivida, con los riesgos sociales de compartir información (Hargittai & Marwick, 2016). Para Maisa, no es solo el Gran Hermano lo que debe preocuparle, sino también otras personas. Le inquieta que usuarios y usuarias de redes sociales a quienes ni siquiera conoce puedan estar espiándola.
Este ensayo documenta experiencias personales de angustia e inseguridad vinculadas con los algoritmos y las prácticas de datos relacionadas. Las formulaciones del miedo y la angustia se abordan como material para desvelar una estructura de sentimiento de oposición, característica de la cultura algorítmica. Su énfasis recae en una postura reactiva.
La confianza que la gente deposita en los futuros tecnológicos se desplaza hacia un terreno de incertidumbre y desconfianza, subrayando que no podemos estar seguros de que las técnicas algorítmicas estén de nuestro lado. Una persona tras otra cuenta que siente que ya no está en condiciones de fijar sus propios límites personales; sus relatos abordan la angustia que les provoca no poder decidir quién puede entrar en su espacio privado y en qué términos.
El miedo suele aparecer cuando la maquinaria corporativa revela que “sabe demasiado” o filtra información, destruyendo de manera inesperada la ilusión de privacidad y seguridad.
Lo que se consideraba una acción íntima o “invisible” se vuelve pública, visible y expuesta. Las personas entrevistadas hablan de “momentos de alerta” (Bucher, 2017), esos momentos de “espera, ¿qué está pasando?”, cuando infieren las asociaciones algorítmicas que se han hecho a partir de su comportamiento; después de reservar una habitación de hotel, por ejemplo, un anuncio en una red social les informa de inmediato sobre un festival en esa misma ciudad.
Mikael, estudiante de antropología social, entiende que el objetivo de estas sugerencias, habilitadas por algoritmos, es ampliar y agilizar el flujo de la vida cotidiana, pero aun así le parecen “potencialmente peligrosas”. No es tanto que sean amenazantes en el aquí y ahora —los anuncios en sí son bastante inofensivos—, sino que ponen al descubierto los mecanismos predictivos en marcha, planteando interrogantes sobre los desarrollos futuros y la imposibilidad de saber qué viene después.
Esta discusión se detiene en formulaciones emocionales que parecen coherentes y repetidas, para preguntar qué pueden decirnos sobre el cambio cultural en la sociedad contemporánea que fomenta relaciones con la tecnología cargadas de afecto. Propongo que, al trasladar las experiencias de miedo de la esfera personal a la colectiva, una vía posible es la analogía; así, introduzco la noción de una geografía digital del miedo para reunir la angustia bajo el paraguas común de una estructura de sentimiento.
Esto abre una perspectiva sobre cómo describen y afrontan las personas el hecho de que disponen de un conocimiento y un control limitados sobre la difusión y el uso de su información personal.
Atender a la infraestructura afectiva nos invita a ver el miedo y la angustia de otro modo, como una forma de daño colectivo. Ahora bien, la manera en que las personas entrevistadas en nuestro estudio hablan del miedo deja claro también que esta estructura de sentimiento de oposición no se comparte por igual.
Como ocurre con los placeres vinculados al uso de tecnologías, la geografía digital del miedo acentúa las brechas digitales en la experiencia vivida. Las formulaciones más contundentes de la angustia digital suelen consistir en predicciones de un futuro distópico y proyectan una trayectoria lineal hacia delante: advertencias de que las cosas no harán más que empeorar.
El miedo vivido en primera persona se expone, en cambio, de forma más cautelosa y contenida. La aprensión parece ser más intensa entre las personas de mayor edad y quienes mantienen una relación más distante con las tecnologías, que temen que, si cometen algún fallo en su uso, serán explotadas, aprovechadas y dañadas.
La naturaleza íntima e incierta de estos sentimientos se subraya mediante fórmulas introductorias como “creo que” o “tengo la sensación de que”. La naturaleza mundana y repetitiva de los encuentros algorítmicos puede ocultar hasta qué punto la carga emocional puede llegar a ser pesada cuando estas interacciones con las máquinas rozan asuntos íntimos y vulnerabilidades sentidas en carne propia.
Los parques mal iluminados de lo digital
A finales de la década de 1980, la académica feminista Gil Valentine (1989) abrió un debate sobre la geografía del miedo que ensombrecía las experiencias de las mujeres en los espacios públicos. Llamó la atención sobre cómo el miedo que sienten las mujeres en los espacios públicos es consecuencia de relaciones de género desiguales y de la correspondiente falta de seguridad pública.
Las mujeres atraviesan parques mal iluminados sin saber qué hay más adelante y temiendo la violencia, porque su intuición les dice que, mientras el dominio masculino siga tan arraigado en la sociedad, la posibilidad de agresión está siempre presente.
Sin embargo, estadísticamente, en Finlandia como en muchos otros lugares, la violencia contra las mujeres es más probable en el hogar, y los agresores suelen ser hombres conocidos por las víctimas más que desconocidos al azar (Koskela, 1997).
El miedo que sienten las mujeres no es, por tanto, estadísticamente exacto, sino más bien un reflejo de una estructura social más amplia que mantiene la desigualdad de género. Toda violencia de género, tenga lugar en el hogar o en los espacios públicos, e independientemente del género de la víctima, puede rastrearse hasta la estratificación social y las desigualdades asociadas.
Lo que importa, en términos de la geografía de género del miedo, no es tanto el lugar donde se produce la violencia real como la estructura de sentimiento asociada a ella: el miedo afecta a las mujeres y a sus nociones de los espacios públicos y de la sociedad.
No es descabellado señalar que, de forma similar, en el mundo digital el miedo es consecuencia de relaciones de poder desiguales, en la medida en que las asimetrías informacionales desencadenan experiencias de vulnerabilidad y exponen a las personas a la posibilidad de ser dañadas.
Antes de que la producción académica feminista formulara la geografía de género del miedo, se consideraba en general algo “natural” que las mujeres no pudieran caminar solas por un parque de noche, o que salir de casa en la oscuridad sin la compañía de un hombre fuera una conducta de riesgo; esta sigue siendo la realidad en la mayor parte del mundo, donde las mujeres jóvenes en particular se sienten desprotegidas en los espacios públicos. Sin embargo, la noción de geografía del miedo ayuda a identificar el miedo como una experiencia colectiva.
De forma relacionada, la geografía digital del miedo se apoya en experiencias personales para ofrecer una sensación de sentimientos compartidos colectivamente que sostienen la infraestructura afectiva de la cultura algorítmica.
Al rastrear las articulaciones de miedo, angustia e inseguridad, empezamos a ver cómo distintos tipos de relaciones algorítmicas pueden hacer que las personas se sientan vulnerables y expuestas a posibles daños, lo que sugiere que el espectro del miedo y los sentimientos que genera tienen un alcance amplio.
Así, cabe pensar los servicios digitales como los parques mal iluminados del avance tecnológico, que activan sentimientos de posible violación.
Las articulaciones del miedo se asocian con la extracción de datos, las operaciones algorítmicas y procesos más amplios de datificación, en un contexto en que las personas usuarias de internet carecen de medios efectivos para proteger su vida privada y su vida pública (Draper & Turow, 2019).
A la luz de la geografía digital del miedo, no importa exactamente qué hacen las empresas en un sentido técnico, ni si las reacciones de las personas usuarias se basan en hechos precisos. Lo fundamental es que muchas sienten que los proveedores de servicios vulneran de forma descarada las nociones de autonomía y privacidad personal, y eso es precisamente lo que señala la geografía digital del miedo.
El principal aliciente metodológico para centrarse en las estructuras de sentimiento reside en la apertura del enfoque: los sentimientos pueden utilizarse para interrogar y ordenar fuerzas sociales dispares. El miedo ayuda a identificar aspectos de la cultura algorítmica que se dan por sentados, se descuidan o no se exploran suficientemente.
La geografía digital del miedo está compuesta por experiencias de naturaleza ambigua y ambivalente, que van desde la incómoda y aterradora sensación de vulnerabilidad y exposición desencadenada por violaciones de la intimidad hasta la incertidumbre o “paranoia leve” derivada de no comprender ni controlar las implicaciones personales o sociales de la datificación.
Cuando buscamos indicios de la geografía digital del miedo, no podemos alcanzar una convicción exhaustiva sobre qué experiencias deben incluirse bajo ese rótulo. Los sentimientos siempre seguirán siendo privados, fugaces y, en cierta medida, ambivalentes. Combinadas, sin embargo, las articulaciones de miedo dan testimonio de una estructura de sentimiento que exige un reconocimiento público del carácter opaco y vulnerador de la privacidad de la datavigilancia y de los sentimientos de miedo y desconfianza que la acompañan.
Resignarse
Ella, estudiante de ecología, cuenta una conversación privada en la que ella y sus amigas criticaban a Neste —una de las mayores corporaciones de Finlandia en términos de ingresos—, especializada en la producción, refino y comercialización de productos petrolíferos. Después de comentar sus prácticas éticamente problemáticas, pasaron a un asunto más ligero: un armario de ropa en línea que estaban planeando montar.
Poco después de aquella conversación, Ella se fijó en un anuncio en su feed de Facebook con ropa fabricada por Neste. El episodio resultó inquietante, sobre todo porque ella ni siquiera sabía que la corporación petrolera producía ropa.
Al comentar la secuencia de hechos con sus amigas, compartieron experiencias similares y asociaciones extrañas, inexplicables salvo que los teléfonos móviles escucharan las conversaciones privadas. Ella dice que esas historias le hacen preguntarse hasta qué punto se ha normalizado la práctica de escuchar.
Cecilia, que trabaja en la radiotelevisión pública finlandesa (YLE), dice que no ha investigado lo suficiente como para saber si es cierto que los micrófonos de los teléfonos móviles captan sonido ambiente para obtener información privada con la que orientar la publicidad, pero ella también tiene una historia que contar.
Un día estaba hablando con su pareja de un zumo concreto que le gusta y, cuando él no la entendió, repitió la marca en voz clara. Poco después, un anuncio de esa misma marca de zumo apareció en su página de Facebook.
Nuestros entrevistados nos contaron una y otra vez historias sobre esas coincidencias extrañas y prácticas de escucha, ofreciendo pruebas de primera mano tanto de las preocupaciones que tiene la gente en lo relativo a la recopilación de datos como de su rechazo a la normalización de las prácticas corporativas de vigilancia.
Esas historias van construyendo una jerarquía de confianza entre las distintas redes sociales, con Facebook al final de la lista; aunque Mark Zuckerberg niegue públicamente que se espíe a las personas usuarias, la gente da por hecho que ocurre de todos modos, porque es exactamente el tipo de cosa que Facebook podría hacer.
Si Facebook o las empresas comerciales asociadas escuchan o no a través de los teléfonos móviles es algo que se viene debatiendo desde hace años. Distintas pruebas extraoficiales y estudios realizados para aclararlo han concluido, sin embargo, que los teléfonos no se utilizan como medio de escucha.
Incluso si fuera técnicamente posible, los investigadores no han logrado verificar esa escucha en condiciones controladas. La posibilidad de que se puedan extraer ciertas palabras clave publicitarias del habla natural también se debate de forma recurrente, pero no hay certeza de qué hace exactamente cada empresa.
Las personas expertas subrayan que los teléfonos móviles no necesitan escuchar conversaciones privadas, porque pueden recopilar información personal detallada por otros medios y con menos complicaciones (Martinez, 2017).
Facebook ha adoptado prácticas que se apoyan en décadas de experiencia en marketing directo al consumidor por correo (Turow, 2012). Carolin Gerlitz y Anne Helmond (2013, 1361) describen la “economía del Like” en su análisis y señalan que llama la atención sobre la plataforma Facebook y sus flujos de datos en segundo plano, en los que cerrar sesión, borrar el perfil o no haberse registrado nunca en la plataforma no ofrecen una vía real para quedar fuera.
El botón Like sostiene una infraestructura que permite a Facebook recopilar datos de toda persona que visite cualquier sitio que lo incluya, sea usuaria registrada de Facebook o no. Esto significa que, cuando la gente navega por sitios de internet, los botones sociales que remiten a Facebook, como Like o Share, envían datos sobre las visitas al sitio de vuelta a la corporación.
Los datos transaccionales recopilados, que detallan los movimientos de las personas en línea, se pueden vincular a los perfiles de usuario, extraer al instante y multiplicar.
En la práctica, seguir de manera constante el tráfico en línea y los desplazamientos del teléfono es una forma mucho más eficaz de rastrear qué puede interesar a la gente que analizar sus conversaciones privadas. La forma en que hablamos es extremadamente compleja, algo que en Finlandia se complica aún más por el finés, que plantea retos añadidos a cualquier modelo o lista de palabras clave que la empresa pudiera utilizar. Sin embargo, las historias personales sobre recopilación invasiva de datos se concentran en la escucha a través del teléfono, más que en el uso del botón Like o en el análisis de datos de localización.
“Nuestros teléfonos nos escuchan” se ha convertido en lo que Brian Massumi (2010) describe como un “hecho afectivo”: persiste e incluso se alimenta de la refutación de los hechos con los que se le ha vinculado.
Las historias de coincidencias extrañas que no pueden explicarse sin ese tópico siguen proliferando. La estructura de sentimiento que sostiene reacciones de miedo y desconfianza se refuerza con cada historia nueva, compartida en persona o a través de los medios, y señala unas prácticas empresariales sospechosas.
Henrik, coach de vida, cuenta que el riesgo de que los teléfonos estén escuchando ha condicionado su comportamiento. Si planea hacer algo que no quiere exponer, deja el móvil en otra habitación o se va al bosque y lo deja atrás.
La mera posibilidad de ser escuchado ha despertado en él un deseo desafiante, casi infantil, de resistirse y sabotear el algoritmo de Facebook. Le grita cosas aleatorias a su teléfono móvil y luego usa esas palabras como pistas para comprobar si Facebook escucha.
Puede ser cualquier cosa, como gritarle al teléfono: “Pues sí que me apetece viajar a Laponia”. Si no pasa nada, añade: “Me encantaría ver la aurora boreal”. Después de repetir este tipo de frases, examina con atención los anuncios personalizados para ver si empiezan a ofrecerle paquetes vacacionales a Laponia.
En un mundo perfecto, ni siquiera se podría imaginar que el teléfono espiara la vida privada, porque existirían normativas estrictas que regularían cómo se recopila la información. Sin embargo, como muchas otras personas, Henrik es casi fatalista respecto a la situación actual y afirma: “La sociedad nunca va a llevar la delantera en esto”.
Su frustración está en consonancia con los resultados de investigaciones que subrayan hasta qué punto las personas usuarias de internet pueden sentirse impotentes y resignadas, incluso apáticas, ante el desarrollo digital (Hargittai & Marwick, 2016; Draper & Turow, 2019).
Henrik concluye que, incluso con la aplicación del RGPD en la Unión Europea, es poco probable que las cosas mejoren. En las redes sociales, la situación sigue siendo caótica, porque el consentimiento informado constituye la base del tratamiento de los datos. Ese consentimiento debería ser una afirmación inequívoca por parte de la persona interesada, pero en la práctica se otorga por defecto, porque la gente quiere utilizar el servicio concreto con la mayor rapidez posible.
El modelo de aviso y consentimiento no garantiza prácticas justas ni fiables, porque no se ajusta a la manera en que la gente realmente se relaciona con los servicios digitales (Draper, 2017).
Las decisiones sobre las cookies o sobre los vínculos con determinadas prácticas de datos se toman con información insuficiente y no se considera que renunciar sea una opción real. Si Ella, por ejemplo, hubiera consentido de manera consciente las prácticas de datos actuales y hubiera podido prever todas las consecuencias posibles, no tendría necesidad de compartir con sus amigas historias sobre medios intrusivos y vulneraciones de la intimidad.
En la situación actual, sin embargo, las empresas no tienen que hacer nada ilegal: les basta con aprovechar que la gente hace clic en “aceptar” sin leer los términos y condiciones del servicio.
Las prácticas de recopilación de datos son legales, pero el trato posterior de los datos puede seguir resultando inquietante y siniestro. La estructura de sentimiento es el resultado de prácticas legales que, en la experiencia de las personas, se perciben como ilegítimas.
Ansiedades tras el consentimiento
La noción de consentimiento, otorgado por separado a cada sitio web y servicio, invisibiliza el hecho de que es prácticamente imposible comprender todo aquello a lo que se está accediendo. Esto significa que las personas siguen albergando dudas y ansiedades sobre las prácticas de datos incluso después de haber dado su consentimiento (Tanninen et al., 2022b).
Puede que no sea la extracción de datos en sí o la pérdida de intimidad lo que más les perturba, sino una inquietud mucho más amplia.
Como las mujeres que se sienten nerviosas en parques mal iluminados, las personas en línea pueden verse acosadas por la imposibilidad de sentirse relajadas y seguras en el mundo digital. No logran encontrar esa sintonía afectiva, ya sea temporal o más duradera, que caracteriza las experiencias placenteras con los sistemas algorítmicos.
Cuando planteamos en las entrevistas la cuestión de la inseguridad que la gente siente en relación con los sistemas algorítmicos, las y los profesionales de la tecnología y del marketing la interpretaron como una consecuencia del analfabetismo técnico.
Si las personas supieran más sobre algoritmos y tuvieran una mayor alfabetización en datos, se darían cuenta de que nadie les está persiguiendo ni escuchando sus teléfonos. La máquina simplemente enlaza puntos de datos y, a veces, consigue conectar los puntos con tanta precisión que el resultado intimida.
Simon Pitt (2020), responsable de digital corporativo en la BBC, interpreta los “instantes de ‘un momento, ¿qué está pasando aquí?’” que vive la gente como prueba de la calidad de los seres humanos como “máquinas detectoras de patrones”.
No solo las máquinas conectan los puntos: las personas también los conectan y pueden detectar patrones donde no los hay, rellenando las lagunas de su comprensión con narraciones que les ayudan a dar sentido a lo que hacen los algoritmos. Así, por ejemplo, pueden ver causalidades dañinas cuando las recomendaciones algorítmicas son demasiado precisas y dejan al descubierto sus vulnerabilidades.
En un artículo publicado en Wired, Antonio García Martínez (2017), exresponsable de producto de la segmentación publicitaria de Facebook, describe el patrón humano, profundamente ilusorio, de equiparar “lo que más odiaríamos que se desvelara con aquello que los anunciantes (o Facebook) más querrían saber”.
Desde la posición de los profesionales del marketing digital, sostiene que quienes hacen marketing no tratan los datos de las personas usuarias como datos personales. Los consumidores no son abordados como entidades delimitadas, situadas en segmentos de consumo predefinidos, sino como dividuales que, como señala Gilles Deleuze (1992, p. 4), “cambian continuamente de un momento a otro”.
Los datos de alguien —ya se refieran a la localización de sus actividades, a los intereses que expresa o a sus compras— se organizan, definen y valorizan de forma dinámica mediante procesos automatizados que buscan influir en la conducta de maneras que beneficien al mercado.
En consecuencia, Martínez califica de “falacia narcisista” la suposición de que nuestras vidas personales son importantes o interesantes para las empresas. Solo las partes datificadas de esas vidas, rasgos que pueden combinarse y manipularse digitalmente, resultan útiles para el marketing: detalles que pueden no tener nada que ver con nuestras vulnerabilidades, con las inseguridades más profundas y los secretos que queremos conservar para nosotros mismos.
Las personas tienden a abordar las cuestiones de la publicidad personalizada desde una perspectiva egocentrada, partiendo de su propia esfera íntima y privada. Evalúan sus experiencias con los anuncios según cómo les hacen sentir. Sin embargo, la noción de geografía digital del miedo sugiere que, en lugar de tachar el miedo y el malestar de falacia narcisista, habría que reconocerlos como formas de vulneración colectiva.
Lo que Martínez y sus colegas del marketing no terminan de comprender es que, aunque los datos personales no se perciban como tales desde la óptica del marketing digital, las personas cuyas vidas están siendo datificadas conviven estrechamente con las tecnologías. Coevolucionan con ellas y se vinculan de forma íntima a los procedimientos de recopilación de datos: datos que pueden revelar sus patrones de sueño, preocupaciones de salud, ciclos menstruales o la búsqueda de parejas sexuales.
Los datos no son personales en el mismo sentido en que lo es la propiedad privada, aunque a veces se hable de ellos en esos términos, pero aun así la gente puede sentir que tiene cierto grado de propiedad sobre sus datos (Maurer, 2015).
Las huellas de datos pertenecen a la persona que las deja, porque son rastros de lo que esa persona cree, desea o ha hecho en el mundo. Además, el desdén de los profesionales del marketing digital hacia el carácter personal de los datos no debería ocultar el hecho de que sí les importa, y mucho, la información personalmente significativa.
El marketing digital se vuelca literalmente sobre las personas cuando recopila historiales de navegación, hábitos de compra y datos de localización con el propósito de dirigirles mensajes individualizados. Aunque la extracción de datos se realice de forma masiva, de un modo no individualizado, puede seguir dañando a las personas.
La opacidad como lógica de mercado
Una vez que el miedo y la paranoia han empezado a cristalizar, la evidencia contradictoria ya no modifica la situación. Los temores relacionados con la extracción de datos y los algoritmos pueden tener su origen inicial en la falta de información precisa, cuando la gente se forma sus opiniones a partir de datos sesgados o incompletos, pero la desconfianza se alimenta también de la naturaleza envolvente de los servicios digitales: a medida que las personas empiezan a utilizarlos, se ven envueltas voluntariamente, aunque sin plena conciencia, en las tramas de información que alimentan el funcionamiento de esos servicios.
Por ejemplo, hacia 2015 muchos finlandeses comenzaron a encargar kits de pruebas genéticas de 23andMe, que les daban acceso a mapas personalizados de ascendencia y a gráficos con sus riesgos de salud aumentados. Lo hacían sin comprender demasiado bien la agenda menos pública de la empresa, que consistía en implicar a los consumidores en la producción de una base de datos utilizable para forjar alianzas corporativas (Ruckenstein, 2017).
El modo en que se oculta la lógica de mercado de las pruebas genéticas directas al consumidor —incluida la comercialización de los datos de salud y las iniciativas de investigación participativa— revela un rasgo más general de las empresas: la tendencia a ocultar sus mecanismos de extracción de valor. La retórica de apertura y participación que difunden las plataformas digitales enmascara la falta de transparencia en torno a los objetivos económicos ligados al uso de la información personal.
En última instancia, resulta difícil obtener información de primera mano sobre los mecanismos de extracción de valor por vías que no sean los blogs o las páginas de noticias impulsados por las propias empresas. Cuando las personas reconocen los usos extractivos de sus datos y el modo en que su participación se integra en la lógica de negocio —algo que a veces descubren mucho después de haber comenzado a utilizar un servicio—, pueden sentirse traicionadas.
Así, cuando se enteran de que los datos genéticos que han subido al servicio de 23andMe pueden venderse a empresas farmacéuticas, sin ningún beneficio económico para quienes se sometieron a las pruebas y cuyos rastros de datos componen la base de datos, empiezan a examinar con más atención cómo funciona realmente el servicio.
Paradójicamente, con la compra de las pruebas han pagado por convertirse en aportantes a conjuntos de datos de salud comercializables. A la luz de esta estructura de sentimiento oposicional, resulta significativo que las crisis de confianza dirijan la atención hacia el “desmontaje de cómo funciona el sistema” (Bishop, 2019, p. 2592). Solo cuando se ha perdido la confianza la gente empieza a fijarse en lo que ocurre realmente con la ayuda de los datos que ha proporcionado.
En ocasiones, la sensación de engaño está directamente relacionada con la configuración de privacidad de los servicios.
Sara cuenta que participó en un chat de grupo en Telegram, una aplicación de mensajería instantánea que se publicita como más respetuosa con la privacidad que WhatsApp. Tras intercambiar numerosos mensajes bajo la suposición de que eran privados, el grupo de amistades se dio cuenta de pronto de que las conversaciones de grupo en Telegram son susceptibles de ser buscadas por cualquiera. Resultó que, para mantener una conversación privada, es necesario activar la configuración adecuada.
Sara cuenta que se sintió conmocionada, porque ella y sus amigas y amigos habían hablado abiertamente de sus vidas privadas. Este ejemplo pone de relieve que la privacidad no es una configuración por defecto, sino algo que las personas tienen que vigilar y proteger por iniciativa propia.
El servicio, incluso cuando se presenta como respetuoso con la privacidad, parte del supuesto inicial de que la gente en los grupos no necesita privacidad. En este caso, el administrador del grupo de Sara sí había protegido la conversación, pero, perdida la confianza, el grupo decidió mudarse a Signal, otro servicio de mensajería más.
El mutismo de las plataformas subraya su posición de poder: las personas usuarias están en una posición subordinada y tienen que aceptar sus configuraciones y decisiones por defecto.
Salvo que se esté excepcionalmente bien situado —por ejemplo, como influencer consagrado—, comunicarse con plataformas digitales como Facebook, Instagram o YouTube es como hablarle a una pared.
Cada día, personas de todo el mundo envían consultas y solicitudes a estas empresas tratando de entender por qué las plataformas y sus funciones algorítmicas operan como lo hacen: otra forma de experiencia colectiva propia de nuestro tiempo. El silencio de las plataformas digitales alimenta una cultura del no saber, un caldo de cultivo perfecto para un folclore algorítmico que va desde los rumores y chismes hasta teorías de la conspiración elaboradas, a medida que la gente intenta aliviar la incertidumbre y la impotencia que siente.
Frank, especialista en growth hacking, considera que compartir información con sus pares es una pendiente resbaladiza. Puede ayudar a las personas a lidiar con las plataformas en un plano práctico, pero, al apoyarse en conjeturas sobre cómo funcionan las operaciones algorítmicas, pueden acabar basando sus observaciones en teorías de la conspiración y asociaciones poco afortunadas. Al final, esto puede no hacer más que alimentar la inseguridad y la desconfianza.
Ella piensa que sus miedos tienen que ver, al menos en parte, con su incapacidad para entender por qué los servicios digitales, incluidos YouTube y Facebook, ejercen sobre ella una influencia tan grande, enganchándola; de hecho, le parecen dotados de poderes de control.
Sin embargo, debido a la opacidad de los servicios digitales, los algoritmos no revelan fácilmente ese poder. Ella alimenta pensamientos distópicos sobre el uso de Facebook por parte de los Estados para gobernar a su ciudadanía. ¿Cuántos escándalos tipo Cambridge Analytica se están fraguando ahora mismo? Como solo nos enteramos de las vulneraciones a posteriori, no tenemos manera de saber si ya están en marcha.
Leo, con experiencia en una empresa de ciberseguridad, continúa esta línea de razonamiento. Dado que no podemos saber cómo se están utilizando en este momento los procesos algorítmicos —y solo los descubrimos retrospectivamente—, sugiere que es posible que un partido político, o alguna otra instancia de gobierno, esté manipulando el comportamiento de la gente en este mismo momento.
Estas manifestaciones de preocupación, y otras similares, sugieren que empresas y organizaciones tienen la capacidad de utilizar sus recursos para ampliar la escala de la manipulación.
Como el conocimiento es poder, la gobernanza algorítmica se convierte en un arma potente si se emplea de forma sistemática para manipular y controlar a otras personas. Si las empresas deciden o no apoyar ese objetivo, por lo general solo lo sabremos a posteriori, si es que llegamos a saberlo.
Zonas de seguridad personalizadas
El placer que se deriva del uso de tecnologías se refuerza en la misma medida en que las personas sienten autonomía y adoptan actitudes exploratorias. En contraste, el miedo arrasa con la autodeterminación y hace que la gente dude de sí misma y de su capacidad para desenvolverse.
Para reforzar su autonomía, las personas entrevistadas en nuestro estudio describen prácticas relacionadas con la privacidad que adoptan para blindarse frente a posibles daños. Se utilizan bloqueadores de anuncios para evitar la publicidad personalizada, y se protege el anonimato con redes privadas virtuales (VPN) y servicios no comerciales como DuckDuckGo, un motor de búsqueda que, a diferencia de Google, no almacena información personal.
Algunas personas ocultan su dirección IP, alternan entre distintos navegadores para proteger sus huellas de datos personales, rechazan el uso de cookies, utilizan varias cuentas y perfiles en redes sociales, vinculan las cuentas a diferentes direcciones de correo electrónico y números de teléfono o usan nombres falsos. Estas acciones buscan entorpecer y rechazar los esfuerzos de las empresas por recolectar datos.
Puede que resulte imposible saber hasta qué punto estas prácticas son eficaces, pero, en el plano personal, son importantes para reforzar la sensación de control. Retener y curar la información personal para reforzar la privacidad y eludir los intentos de perfilado por parte de las empresas ofrece un medio de proteger, sostener y recuperar la autonomía personal.
A medida que ganan experiencia, las personas pueden elaborar sus propios “mapas de vulneración de la privacidad” que les ayudan a orientarse en el mundo digital e identificar los lugares y prácticas de alto riesgo que conviene evitar.
Las prácticas de protección de la privacidad, y los servicios que las respaldan, son una respuesta directa a un mundo digital que deja las cuestiones de privacidad en el ámbito de la acción individual.
Esto ha producido, de forma casi natural, un mercado de herramientas que asumen esa tarea en nombre de la persona usuaria, en particular las VPN, que hacen que las acciones en línea sean prácticamente imposibles de rastrear.
Max, que se define a sí mismo como un usuario activo de servicios digitales, nos cuenta que comprará Freedome VPN, de la empresa finlandesa de ciberseguridad, en cuanto pueda permitírselo.
El servicio promete protección frente a “hackers, rastreadores y empresas intrusivas”. Oculta las direcciones de protocolo de internet (IP) y el tráfico en línea de las personas usuarias y ofrece información detallada sobre quién las rastrea en la red.
Los servicios de privacidad y los actos individuales de ofuscación refuerzan los límites de la privacidad, de mi privacidad. Los servicios que protegen la privacidad, así como conceptos como el consentimiento informado, aíslan a las personas entre sí y las tratan como átomos que deben crear y cuidar sus propias zonas de seguridad, partiendo de la premisa de que cada individuo es responsable de velar por su propia protección.
Como las mujeres que prefieren conducir antes que caminar por la noche para evitar los parques mal iluminados, las personas que utilizan estos servicios encuentran rodeos que les permiten sentirse dueñas de la situación por sus propios medios, del mismo modo que, en la seguridad de sus coches, con las puertas bien cerradas, las mujeres pueden dejar de pensar en quienes tienen que volver andando a casa desde el metro por callejones y pasos subterráneos oscuros después de una larga jornada de trabajo.
Ahora bien, del mismo modo que los coches, como zonas físicas de seguridad, protegen al individuo pero no al grupo vulnerable, los actos individuales de refuerzo de la privacidad que intentan reducir la exposición a las ciberamenazas no cuestionan el poder de los datos en juego.
Cuando la gente combate la geografía digital del miedo con habilidades tecnológicas o con servicios que prometen proteger la privacidad, las asimetrías informacionales permanecen intactas. Fuera de las zonas personales de seguridad, las personas siguen sintiéndose asustadas e inseguras y siguen contando historias sobre cómo sus móviles las escuchan.
Un efecto secundario de los servicios que preservan la privacidad es que fomentan sentimientos adicionales de insuficiencia. En última instancia, los riesgos se delegan en los individuos, a quienes se aconseja que tomen decisiones racionales sobre su propia seguridad.
Muchas personas entrevistadas lamentaron no haber sido más proactivas, reconocieron que habían hecho muy poco para proteger su privacidad y desearon que los servicios de protección de la privacidad fueran más asequibles y fáciles de usar.
La gente puede recurrir a redes como Tor, que ofrece protección del navegador sin ánimo de lucro, para navegar por internet de manera anónima si no se siente cómoda con la maquinaria global de extracción de datos de la que forman parte servicios de redes sociales como Facebook.
Mikael, sin embargo, coincide con otras personas entrevistadas cuando habla de la imposibilidad de convertirse en un usuario habitual de Tor, señalando que su uso resulta engorroso y complicaría la vida cotidiana. Tor, Freenet y las redes peer-to-peer gestionadas por organizaciones públicas y por particulares funcionan en la “web oscura” (dark web), donde se puede ocultar la identidad y comunicarse o realizar transacciones comerciales sin exponer la propia ubicación.
La web oscura es solo una fracción de la web profunda (deep web), que no está indexada por los motores de búsqueda. En el lenguaje cotidiano, sin embargo, la web oscura suele confundirse con la web profunda y, pese a sus diferencias, ambas se asocian con la venta de drogas y armas, el juego y la pornografía infantil.
En consecuencia, la idea de que, para usar internet de forma segura, haya que seguir las mismas rutas que criminales y pederastas no parece razonable. Es como si no fuera “normal” proteger la propia privacidad si, para hacerlo, hay que alinearse con personas desviadas y transgresoras.
Elegir no tener miedo
La geografía digital del miedo engloba valoraciones y juicios sobre lo que está ocurriendo, así como sobre qué es posible para quién y bajo qué condiciones.
El malestar ante las prácticas actuales de recopilación de datos condiciona la experiencia de quienes sienten que no dominan las herramientas digitales y que carecen de las competencias necesarias para reforzar su autonomía en el mundo digital.
Ahora bien, el miedo y la desconfianza también separan a los y las profesionales de la tecnología que viven la experiencia de forma optimista de quienes tienen una actitud más suspicaz o cínica ante las tecnologías digitales.
Para mantener un clima positivo, las personas participantes en nuestro estudio pueden distanciarse deliberadamente de los riesgos y daños potenciales de los desarrollos futuros y, en su lugar, subrayar sus propias capacidades de acción. En vez de reconocer los efectos paralizantes que puede tener la geografía digital del miedo, insisten en la necesidad de sacudirse las tensiones y actuar.
A medida que, como profesionales, sostienen y escenifican activamente los placeres del desarrollo tecnológico, afrontan las inseguridades asociadas a la datavigilancia mitigando sus efectos.
Henrik es un buen ejemplo. Henrik cultiva un ambiente en línea positivo limpiando su muro de Facebook de influencias negativas y promoviendo mensajes optimistas sobre los avances tecnológicos. Aunque reconoce las amenazas a la privacidad y a la democracia que conllevan las tecnologías digitales, se niega a quedar atrapado en el miedo o a prestar demasiada atención a esas amenazas. Afirma que no puede adoptar una “actitud de víctima” ni ponerse a lamentar lo horrible que resulta que exploten sus datos personales.
Desde su punto de vista, este enfoque es lógico: no podría entusiasmarse con los desarrollos digitales si se centrara en anticipar los aspectos negativos. Para él, la división del trabajo es clara: mientras él se concentra en los escenarios de futuro constructivos que valora el mundo empresarial, otras personas pueden ocuparse de la esfera poco alegre del riesgo y el daño.
Sin embargo, cuando se detiene a pensar en el poder de vigilancia que hacen posible las prácticas extractivas de recopilación de datos, Henrik empieza a sentirse angustiado. En las entrevistas, tanto profesionales como personas legas oscilan entre escenarios futuros negativos y positivos, según la capacidad de acción y el grado de optimismo que sienten que tienen a la hora de orientar esos desarrollos.
Así, viven simultáneamente distintas versiones del futuro algorítmico. Si, por ejemplo, Henrik quisiera llevar a cabo alguna forma de desobediencia civil, tendría que tener en cuenta que el adversario —“sea una comunidad, el Estado o quien sea”— podría rastrear su paradero. Como mínimo, la autoridad responsable de la red local de transporte público podría identificar sus recorridos diarios a partir de los datos de su tarjeta de transporte.
Observa, sin embargo, que en Finlandia le asusta menos la posibilidad de que el Estado u otra entidad oficial utilice su información personal que la de que se produzcan fallos de sistema.
Hace referencia a una historia relacionada con Facebook que saltó a la luz en 2012, según la cual un fallo en el sitio habría empezado a publicar en los muros de los usuarios mensajes privados archivados. Probablemente la historia ni siquiera sea cierta, pero sigue circulando como folclore algorítmico.
Henrik afirma que la posibilidad de que sus conversaciones privadas en Facebook pudieran hacerse visibles públicamente le da miedo, porque ha mantenido sexo en línea. La idea de que sus intercambios íntimos pudieran quedar expuestos le resulta espantosa. Durante esos encuentros sexuales podría haber cambiado del chat de Facebook a otro canal, pero finalmente decidió seguir en ese chat porque, como él mismo dice, “ya estaba allí, así que qué más daba”.
Su experiencia da cuenta de la dificultad de controlar plenamente las propias acciones o el espacio digital a medida que la vida se desplaza de forma más permanente al entorno en línea.
Heidi, estudiante de empresariales, comparte la idea de que no todos los mecanismos de control son deseables: las personas deberían tener la libertad de actuar y hacer cosas de las que los demás no tengan por qué enterarse.
Su manera de pensar subraya, sin embargo, que la autonomía personal no es un estado dado, sino algo que hay que perseguir activamente. Las personas, sostiene, deben volverse más proactivas y aprender a disipar sus angustias, porque la única manera de avanzar es aprender a vivir con la inseguridad.
Como ella misma señala: “Por supuesto, siempre puedes borrarlo todo —al menos tu propio comportamiento y tus propios perfiles en las redes sociales y cosas así— e irte a vivir a una cabaña en el bosque, sin aparatos electrónicos alrededor. ¿Es muy inteligente? No”.
Para Heidi, quedarse atrapada en los propios miedos equivale a quedar marginada: se deja de formar parte activa de los desarrollos futuros y se permanece congelada en el tiempo, incapaz de participar en la sociedad digital.
Mientras que la coevolución con los sistemas algorítmicos genera una corriente de fondo que impulsa las cosas hacia delante, los miedos las frenan, creando barreras y obstáculos. En última instancia, el paisaje experiencial de la geografía digital del miedo es contextual y situacional, y los movimientos hacia adelante y hacia atrás se evalúan y reevalúan constantemente.
La marginación de la inseguridad
En las entrevistas, la geografía digital del miedo se hacía a veces tangible cuando las personas participantes enumeraban daños y sufrimientos reales y potenciales. Esto amplía la estructura de sentimiento alimentada por la inseguridad y la paranoia hacia un abanico más amplio de posibles daños que pueden causar los algoritmos y las tecnologías.
Liisa, auxiliar de enfermería y nutricionista, cuenta que primero les robaron la tarjeta bancaria familiar y luego piratearon la tarjeta de crédito de su marido y alguien hizo compras con ella en el extranjero. También recuerda que unas semanas antes la impresora había empezado a funcionar en mitad de la noche, sacando copias extrañas; alguien también la había secuestrado.
Al final, puede que no sea la propia recopilación de datos lo que más preocupe a la gente, sino los movimientos y usos dañinos de esos datos, en particular aquellos que no están iniciados por las empresas (Lupton y Michael, 2017).
Erika, que trabaja como cocinera, dice que está “moderadamente paranoica” con los algoritmos y los usos que se hacen de la información privada. Atribuye su paranoia a sus escasas competencias matemáticas y a su falta de comprensión de cómo funcionan las máquinas, mientras describe la sensación insistente que la acompaña: “Si he visitado una página una vez para mirar algo y no es que quiera comprarlo necesariamente, se queda ahí y me persigue. “Nah, estuviste aquí”. Es como si hubiera un ser de tipo maternal que me lo echara en cara y dijera: ‘Ah, fuiste a mirar esto y esto’”.
Después de describir a ese “ser de tipo maternal” que la vigila y la acecha, pasa a hablar de otros miedos que tiene, entre ellos los fraudes, las estafas y el robo de identidad, y añade que contiene sus incertidumbres mediante prácticas de preservación de la privacidad.
A diferencia de las personas usuarias más competentes tecnológicamente, que cuentan con un conocimiento detallado de cómo funcionan los servicios, sus prácticas se basan en lo que ella supone necesario para protegerse: se dio de alta en Facebook con un apellido falso, vigila la información que comparte y desorienta a posibles “acosadores” evitando revelar su geolocalización.
Erika cuenta que uno de sus amigos tiene aún más miedo a la protección de datos y a los robos de identidad. No publica en Facebook nada que pueda exponer su identidad. Cuando conoce gente nueva en persona, ni siquiera les dice su nombre real. Erika se alegra de no estar “tan paranoica” como él, pero a medida que sigue contando su historia se hace evidente que sus propias ansiedades también son difíciles de contener.
Para ella, el miedo es una experiencia que acapara con frecuencia su atención y condiciona su relación global con las tecnologías digitales. Está muy alerta ante la posibilidad de robos en su casa, que considera factible si actualiza en Facebook que está de vacaciones.
Le preocupa la adicción a la tecnología y relata cómo las tecnologías digitales afectan a la calidad de su sueño, estropean su concentración y la hacen “irse por derroteros extraños”. Sufre temores relacionados con la radiación, causada en particular por el wifi, y asegura que puede sentir esa radiación cuando sostiene su teléfono móvil. Este emite una especie de “temblor” y, sobre todo cuando lo está cargando, puede percibir un “tipo vum-vum-vum” a medida que entra la energía.
La inseguridad digital puede vivirse como algo vergonzoso, de lo que se habla con cierta disculpa. La geografía digital del miedo sigue asociándose culturalmente con quienes no son capaces de aprovechar los beneficios de los desarrollos digitales.
“De vuelta a la Edad de Piedra”, dice Mikael cuando alude a la necesidad social de un lobby anti-algoritmos, mientras que quienes temen y desconfían de los servicios digitales a veces se describen a sí mismos como “marginados” o “jubilados”, marcando así su posición periférica en la sociedad digital.
Una joven se llama a sí misma abuela, otra “pensionista”, ilustrando su marginalidad con su negativa a descargarse Mobile Pay. Desconfía del servicio, porque le exigiría guardar los datos bancarios en el teléfono, una postura que ella misma interpreta como signo de no estar del todo al día y, por tanto, de ser una jubilada.
La desconfianza digital se percibe como algo casi reprobable incluso entre quienes la sienten, porque sugiere que no están a la altura de las expectativas sociales en Finlandia, una de las sociedades más digitalizadas del mundo.
Ella siente que, pese a su juventud, se está convirtiendo en una “abuela atrasada que lucha contra el progreso”. En realidad, piensa, debería confiar en que, si los algoritmos fueran tan horribles como ella cree, la gente se lanzaría a las barricadas; añade, sin embargo, que esta idea es “un poco tonta”, porque hay demasiadas cosas en el mundo contra las que la gente no se moviliza.
Reconoce que está atrapada en la idea de que la tecnología digital es mala, pero aunque esto la sitúe como culturalmente atrasada, sin pertenecer del todo a la sociedad digital, no consigue desprenderse de ella.
Una forma habitual de aludir a este desajuste social es hablar de “ponerse el sombrero de papel de aluminio” o de pasarse “al lado del papel de aluminio”, dando a entender que el propio pensamiento puede resultar paranoico o distópico a la luz de los desarrollos reales, que una persona “desentona” socialmente y tiene una relación inadecuada con las tecnologías. Como concluye Erika: “¿Qué parte es realmente cierta y qué parte es paranoia? ¿Dónde se puede trazar la línea del famoso sombrero de papel de aluminio? En mi caso, no, no del todo. Personalmente, yo no me pondría el sombrero de papel de aluminio”.
Pauli, que en general adopta una postura confiada ante las tecnologías digitales, advierte de que quizá se esté acercando “al lado del papel de aluminio” cuando piensa en cómo se utilizan los algoritmos para influir en lo que la gente piensa.
Sin embargo, en lugar de localizar la inseguridad digital en las psiques individuales, subraya los procesos sociales de mayor alcance que están en juego y la necesidad de una noción amplia de geografía digital del miedo.
Para Pauli, la inseguridad digital está vinculada a los Estados y organizaciones que manipulan y siembran inseguridad en los demás. Las empresas de datos pueden entregar información a los servicios de inteligencia estadounidenses, mientras que las operaciones de inteligencia se utilizan para promover intereses estatales en ámbitos tan diversos como la política comercial o la seguridad.
Los hackers rusos crean sitios de noticias falsas y utilizan algoritmos para bombardear a la población con desinformación. Pauli insiste en que la propaganda no es un fenómeno nuevo, pero en los espacios digitales puede resultar más difícil discernir qué es propaganda y qué pretende, lo que sacude los cimientos de las sociedades democráticas y extiende redes de ansiedad e inseguridad en formas cada vez más diversas.
Las crecientes inquietudes se conectan, en la experiencia, con formas locales de expresar angustia y miedo, un tema al que paso a continuación.
“Calentarse”
El miedo no es necesariamente la palabra que utilizan los jóvenes finlandeses cuando describen los aspectos inquietantes de la dataficación y del mundo digital; en su lugar emplean el verbo kuumottaa —literalmente, “calentarse”—, una palabra sin traducción directa al español que remite a un estado emocional o afectivo.
Originalmente un término de argot subcultural, kuumottaa se popularizó con un documental de viajes finlandés llamado Madventures, estrenado en 2002. En sus viajes, el presentador finlandés y su camarógrafo compatriota usaban la expresión para describir lo que sentían ante ciertas costumbres locales extrañas.
Hoy, “calentarse” se asocia a una amplia gama de situaciones, acontecimientos y posibles desarrollos futuros. En el día a día finlandés, puede servir para describir la tensión ante una entrevista de trabajo o el miedo a las consecuencias de los propios actos. Por ejemplo, si uno entra en un supermercado y no encuentra el producto que buscaba, siente que “se calienta” al salir con las manos vacías, por si lo confunden con un ladrón.
En el contexto de la geografía digital del miedo, “calentarse” se relaciona con distintos tipos de daño y vulnerabilidad causados por los desarrollos digitales y por las implicaciones sociales más amplias de la dataficación. Indica una conciencia de los efectos negativos de esos procesos y la frustración ante la escasa capacidad de mitigar o mejorar la situación actual.
La flexibilidad en el uso del término convierte “calentarse” en un concepto potente para expresar el carácter local de la cultura algorítmica. También puede usarse con humor o de forma ambivalente, para evitar sonar como si una estuviera deslizándose “al lado del papel de aluminio”. Uno puede “calentarse” también por el miedo a que otros sean vulnerables a los daños digitales.
Kari, profesor de biología prudente con sus propias prácticas de datos, dice que se “calienta” por el hábito de su madre de hacer clic en enlaces al azar y no tener ni idea de cómo manejar su información personal.
Cuando los hijos se preocupan de que sus padres mayores puedan hacerse daño, a menudo asumen ellos mismos las tareas digitales para protegerlos; también puede ocurrir que los padres esperen activamente esa protección.
Liisa, que ronda los cincuenta, cuenta que nunca ha llegado a familiarizarse con la tecnología digital porque su hijo se convirtió en su soporte informático cuando todavía era un niño. Desde los diez años, ha sido él quien buscaba cosas para ella en internet y quien realizaba sus gestiones digitales.
Los hijos que “se calientan” por sus padres saben que se dirige poca empatía hacia las personas mayores que hacen clic en enlaces fraudulentos por falta de destreza con el ordenador o por mala vista. Temen el día en que sus progenitores suban un malware a sus ordenadores o compartan accidentalmente sus datos bancarios.
La necesidad de proteger a sus seres queridos conecta con la manera en que se cuestiona la conducta individual en los casos de violación de la privacidad. Como ocurre con la geografía de género del miedo, a menudo se culpa a las víctimas por sus actos.
Teresa, de unos treinta y tantos años y empleada en el departamento de ventas de una gran empresa tecnológica, considera que el principal problema en materia de fraude son los propios usuarios. Habla desde la posición de una profesional de la tecnología para quien el daño digital lo causan humanos equivocados y mal informados que difunden enlaces fraudulentos cuando el supermercado local promete entregar una tarjeta regalo de 500 euros. “O piensan que un príncipe nigeriano les está esperando. Pues no”.
Calentarse se vincula a acciones personales o al comportamiento de otros, pero, según nuestro material, lo más habitual es que se asocie con desarrollos tecnológicos y con la imposibilidad de saber qué viene después. Calentarse es la sensación de un futuro incierto. Es una respuesta corporal a la amenaza existencial de lo desconocido.
Nina, actualmente en paro, no puede señalar ningún abuso concreto de los datos personales, pero intenta articular una visión general negativa mediante la noción de calentarse. Termina la entrevista preguntando cuáles serían las razones legítimas para temer la recopilación de datos. La estructura de sentimiento de oposición, que vincula las articulaciones del miedo con las experiencias de calentarse, se alimenta de pensamientos de pavor sobre los efectos de la recopilación de datos, incluso cuando siguen sin identificarse.
Para Frank, el growth hacker, calentarse remite a la paranoia, si bien quizá a una paranoia en parte legítima. Se sitúa en el papel de un adulto que observa, con distancia, cómo se calientan los demás. Lo explica trazando una analogía con la tendencia de los terrible twos, esa etapa de los “terribles dos años”, a decir que no a todo.
Esta inclinación negativa, aunque infantil, está activa en todos nosotros: reaccionamos si se pone en peligro nuestra autonomía personal. Aludiendo a la distopía política de George Orwell en 1984, Frank dice que, a diferencia de lo que ocurre en el libro, la manipulación contemporánea no es una vigilancia de tipo Gran Hermano destinada a secuestrar y controlar el pasado y el presente de las personas, sino que se orienta a dirigir su acción.
El objetivo principal es acelerar el proceso de toma de decisiones de compra. Otros, como Sebastian, subrayan sin embargo las ramificaciones político-económicas. A diferencia de las alegrías y placeres del desarrollo tecnológico, que fomentan la sensación de autonomía y de anticipación, calentarse se vincula con la incapacidad de mitigar las formas estructurales de daño.
Sebastian, estudiante de Derecho, sitúa el calentarse en el contexto de la recopilación excesiva de datos que permiten los teléfonos móviles. Describe cómo “te empieza a sudar un poco la frente cuando ves documentales o lo que sea sobre el tema; sí, eso empieza a calentarte”. Habla de la dificultad de comprender cómo un aparatito, un teléfono móvil, puede saber tanto de ti. “Soy en cierta medida consciente —dice—, pero sigue siendo difícil captar, discernir la inmensidad de todo eso”.
Al reflexionar sobre la impotencia para resistir los desarrollos actuales, Sebastian vincula los poderes algorítmicos a un nuevo tipo de pasividad, cuyas implicaciones van mucho más allá de la cuestión de la privacidad: la gente se convierte en “chirivías insensibles que actualizan el canal de YouTube”. Se la moldea mediante técnicas de diseño persuasivo, se la engancha y atrapa con sistemas de recomendación.
Afirma que, mientras los jóvenes estén entretenidos, se sienten cómodos sin saber ni entender el conjunto de la situación. Las “empresas diabólicas” globales han generado “un paquete ya hecho”, un mundo que ya no tiene nada que ver con la innovación para las generaciones futuras, sino que intenta mantenernos pasivos y sumisos como vegetales, “digitalmente resignados” (Draper & Turow, 2019).
Sebastian habla de un nuevo orden mundial que valora por encima de todo la autoridad y la pericia técnicas. En ese mundo, él queda marginado y va a remolque por sus limitadas habilidades con Excel. Su diatriba airada le aleja de una contradicción evidente: como estudiante de Derecho en la Universidad de Helsinki, dista mucho de ser el individuo desfavorecido que dice ser. Sin embargo, la forma en que se sitúa con respecto a los procesos de dataficación alberga una intensidad emocional que apunta hacia un futuro que percibe como inminente.
Los desarrollos capitalistas, combinados con los poderes algorítmicos, nos alejan del progreso social que podría sostener y desarrollar sociedades democráticas. Ve por delante malas decisiones y oportunidades perdidas, una visión que resuena con las conclusiones de los estudios críticos de los datos. Como afirma John Cheney-Lippold (2017, p. 257), “nuestros mundos se deciden por nosotros, nuestro presente y nuestros futuros se dictan desde detrás del telón computacional”.
Las personas detrás de los algoritmos
Las articulaciones de calentarse remiten a visiones negativas y distópicas y a escenarios de peor caso en materia tecnológica, pero Cecilia cree que, en realidad, la gente tiene miedo de los profesionales que están detrás de los algoritmos. Como dice, “es un lugar tan sin rostro al que va esa información. ¿Quién está ahí, quién utiliza los datos?”.
Al tiempo que subraya el potencial asombroso de la automatización y la robótica para elevar a las sociedades a niveles completamente nuevos, señala que, si la gente se liberara de verdad del trabajo mecánico, tal como prometen los escenarios tecno-optimistas, se abriría espacio para pensar creativamente el futuro, algo urgentemente necesario ante las actuales crisis climáticas.
Sin embargo, ni siquiera podemos acercarnos a ese potencial, porque el poder de diseñar tecnologías y pensar sus aplicaciones queda restringido a un grupo cada vez más reducido de profesionales: unos pocos hombres blancos privilegiados.
Para Cecilia, calentarse consiste en una ansiedad generalizada ante la posibilidad de que el futuro descarrile en manos de corporaciones de datos cuyos directivos parecen tener muy poco interés por el destino de los jóvenes en lugares globalmente periféricos como Finlandia.
Estados y ciudadanos están cediendo inadvertidamente soberanía y poder a gigantes corporativos con enormes recursos de datos, mientras los profesionales que estas empresas contratan en las mejores universidades del mundo utilizan sus competencias y capacidades para orientar nuestras acciones.
Aunque no seamos plenamente conscientes de esa pérdida mientras se produce, nuestras emociones y nuestros cuerpos la sospechan, porque siguen calentándose. Una manera de pensar el calentarse, entonces, es tratarlo como una resonancia emocional con nuestro tiempo, un espíritu de época interiorizado que encarna la crítica a la dataficación. Calentarse concretiza, en el plano personal, preocupaciones y miedos sobre la cultura pública.
Nina, que utiliza las tecnologías digitales principalmente con fines de entretenimiento, quiere creer que los algoritmos son útiles, pero le perturba que limiten su visión del mundo; le preocupa dejar de encontrarse con puntos de vista contrapuestos sobre cuestiones políticas y morales. Aquí, calentarse se siente en relación con las “burbujas de filtros” (filter bubbles; Pariser, 2011), nuestros universos informativos personalizados de los que los algoritmos han eliminado tensiones y contradicciones.
Se han realizado estudios empíricos tanto para confirmar como para refutar la existencia de burbujas de filtros (véase Bruns, 2019), pero, si atendemos a cómo hablan los finlandeses de su relación con los algoritmos, la experiencia de estar en una burbuja, y de ser moldeado por una burbuja, sigue muy viva.
Nina dice que su ecosistema informativo personal es sin duda más agradable que alguna “burbuja racista”, pero si esa fuera toda la información con la que se topa, el racismo quedaría tan depurado de su esfera digital que podría llegar a pensar que no es un problema real en la sociedad finlandesa.
Eemil, microbiólogo con conocimientos de algoritmos, continúa la línea de reflexión de Nina y afirma que, si la información que uno recibe se limita a confirmar su propia visión del mundo, se incrementa la distancia con quienes piensan de otro modo.
A partir de la forma en que los algoritmos de las redes sociales lo tratan, a él lo han perfilado políticamente como verde y de izquierdas. Si esa fuera toda la información que recibe, se pregunta Eemil, ¿cómo podría entender otras ideologías políticas? Un hombre que solo conversa con su propia imagen en el espejo se convierte enseguida en un hombre unidimensional.
La información que recibimos siempre ha estado limitada hasta cierto punto, pero, como señalan una y otra vez las personas entrevistadas en nuestra investigación, los mecanismos algorítmicos actuales tienen la capacidad de acelerar las burbujas de información y las cámaras de eco que alimentan aquello que uno ya sabe y en lo que ya ha mostrado interés.
Ella comenta que, en lugar de favorecer un flujo libre de información, los algoritmos “te la ofrecen ya lista”. El procesamiento algorítmico de la información puede recortar fragmentos de la historia de un modo que aplana el pasado. Este tipo de empaquetado no solo compartimenta la información, sino que también puede obstaculizar la comprensión contextual y el cambio.
Ella quiere aprender cosas y perspectivas nuevas, y siente que está cambiando como persona, pero los algoritmos tienen un cierto conservadurismo inscrito en su lógica y seguirán ofreciéndole información basada en aquello que ella haya valorado positivamente en el pasado. Como observa, sin embargo: “¿Y si una invención capaz de revolucionar el mundo pasa inadvertida porque no consigue suficientes “me gusta”?”. Debido a que la tiranía del algoritmo favorece lo que ya se ha vuelto popular y apreciado, la máquina puede no reconocer aquello que es verdaderamente excepcional.
Distopías compartidas
Las incomodidades articuladas mediante la noción de calentarse conectan con el miedo a perder un terreno común desde el que apreciar y experimentar el mundo; se considera que los desarrollos algorítmicos conducen a la imposibilidad de aprender unos de otros, a medida que cada cual construye una impresión subjetiva de la realidad, aislada de las experiencias ajenas.
Sin embargo, los escenarios distópicos de futuro ofrecen un terreno común alternativo, con narrativas y símbolos unificadores potentes, como ese Facebook taimado. Muchas de las personas entrevistadas mencionan a Donald Trump, el expresidente de Estados Unidos, en estrecha asociación con la polarización social potenciada por algoritmos.
La forma en que fue elegido y el modo en que utilizó y abusó de las redes sociales durante su mandato ejemplifican esfuerzos activos por socavar los procesos democráticos. Históricamente, la trayectoria de Trump no es un fenómeno populista enteramente nuevo, pero su variante es “más desagradable, más burda y más beligerante” (Rosenfeld, 2019, p. 127) que las anteriores.
Rosa, auxiliar de recursos humanos, compara el modo de influencia de Trump con el de los junk news media, cuya circulación se beneficia de contenidos cargados emocionalmente (Savolainen et al., 2020).
Desde esta perspectiva, los algoritmos se ven como obstáculos para una cultura pública saludable, en la medida en que promueven acciones “en blanco y negro” emocionalmente intensas.
Como muchas otras personas, Rosa considera a Trump una manifestación de los desarrollos polarizadores actuales, que alimentan la desinformación, la exageración y las mentiras descaradas, al tiempo que él mismo amplía activamente la brecha entre sus partidarios y sus adversarios mediante la comunicación de una división destructiva entre “nosotros” y “ellos”.
Con sus mecanismos de clasificación, los algoritmos profundizan aún más esas brechas, aceleran los conflictos y desgarran a la gente. Para combatir las tensiones y desarrollos actuales, Rosa aboga por un desarrollo algorítmico que dé prioridad a los hechos científicos antes que a la intensificación afectiva. Para ella, la cultura pública no está amenazada por las operaciones algorítmicas en sí, sino por la forma en que se definen y emplean las reglas condicionales IF-THEN de los algoritmos.
Si bien Trump se ha convertido en un símbolo global de la difusión algorítmica de agresividad y desinformación, irónicamente también se ha convertido en el personaje arquetípico de una distopía compartida que define la cultura algorítmica finlandesa.
Teresa vincula los mecanismos algorítmicos de difusión de desinformación con Trump, pero también con los ejércitos de troles rusos —otra amenaza para la democracia— y sostiene que los finlandeses no reconocen que ya están inmersos en una guerra de información con su país vecino.
Tras la invasión de Ucrania por parte de Rusia en febrero de 2022, la percepción de la guerra de información cambió muy rápidamente en Finlandia. Teresa, sin embargo, ya hablaba de ello cuando casi nadie se lo tomaba en serio.
Tradicionalmente, una guerra de este tipo se libraría mediante propaganda, con los rusos lanzando octavillas informativas a lo largo de su frontera y anunciando por altavoces: “Venid, aquí tendréis pan”.
La actual guerra de la información es “mucho más eficaz y fluida”. Teresa duda de que los finlandeses distingan qué comentarios en la sección de comentarios en línea de un tabloide finlandés proceden de troles rusos. Su mayor temor es que los datos y los algoritmos se utilicen para difundir una propaganda silenciosa destinada a movilizar nuevos movimientos racistas y aumentar el apoyo a los nazis, y añade que la cruzada contra las mujeres ya está activa en Europa.
Esto da realmente miedo, piensa, porque podría desembocar en revoluciones: “Pronto podríamos estar en Gilead”, dice, en referencia a The Handmaid’s Tale de Margaret Atwood. “Ésta es la distopía”, concluye, añadiendo entre risas que, por suerte, los ejércitos de troles no son lo bastante listos como para lograr todo eso, pero que es importante mantener una dosis saludable de desconfianza y no ser ingenuos.
Las distopías compartidas no resultan inquietantes del mismo modo que las experiencias personales. Sitúan los desarrollos dañinos en otra parte, desviando la atención de los finlandeses respecto a lo que podrían ser preocupaciones reales compartidas, tanto local como globalmente.
Por ejemplo, uno de los temas que apenas recibe atención por parte de las personas entrevistadas en nuestro estudio son las consecuencias medioambientales de la dataficación.
Eeva, profesora de manualidades que en ese momento estaba en casa con sus hijos pequeños, es una de las pocas que vincula el desarrollo tecnológico con las preocupaciones ecológicas. Considera que la imposibilidad de mantener un crecimiento tecnológico y económico continuos es el problema más acuciante de nuestro tiempo.
Para ella, la geografía digital del miedo sigue incompleta si no tiene en cuenta que las infraestructuras tecnológicas necesitan recursos naturales tanto para su producción como para su uso, y que ponen a prueba los límites ecológicos (Hogan, 2015).
Eeva no siente nostalgia por un pasado sin internet, pero tampoco desea el actual mundo digital ubicuo. Piensa, o al menos espera, que en algún momento nuestra relación con las tecnologías se volverá más razonable; de lo contrario, no podremos vivir bien en el futuro, o simplemente no podremos vivir.
Así, trasciende la distopía para formular lo que es una conclusión lógica sobre la expansión continuada del mundo de las tecnologías sin una reflexión cuidadosa sobre sus fundamentos ecológicos.
Recuperar lo colectivo
Este ensayo ha propuesto la noción de geografía del miedo como un lente analógico para explorar un ámbito de infraestructura afectiva que nace de experiencias cotidianas de miedo, angustia e inseguridad.
El objetivo ha sido mostrar cómo las experiencias colectivas de miedo y paranoia llaman la atención sobre las vulnerabilidades contemporáneas. La noción de geografía digital del miedo subraya la naturaleza compartida de la inseguridad y la angustia, en la medida en que pone de relieve el fracaso a la hora de crear un espacio público seguro para todos.
Una diferencia importante entre las dos geografías, la de género y la digital, reside en la naturaleza de la amenaza que provoca miedo y angustia. En el caso de las mujeres y los espacios públicos, el peligro percibido es la violencia física ejercida por hombres, que por su naturaleza es clara, directa y concreta.
Las estrategias para afrontarlo son la evitación y la alerta. Las mujeres escudriñan su entorno para detectar riesgos y eligen caminos con iluminación o presencia de otras personas; pueden correr por lugares intimidantes.
En el caso de los procesos de dataficación, las amenazas percibidas son mucho más difíciles de precisar. Son indirectas, amorfas y, en ocasiones, están relacionadas con desarrollos futuros imaginados más que con posibilidades prospectivas.
Los futuros se sienten y se anticipan más de lo que se conocen. Las violaciones de los límites personales se producen una y otra vez, pero la naturaleza de la violación no es directa y exige evaluar la posible pérdida y los daños y riesgos asociados.
Dicha evaluación se complica por la forma en que las empresas de datos minimizan sus poderes sociales y societales. Sea cual sea el poder que un servicio digital concreto ejerce sobre la persona usuaria, no está diseñado para ser brusco y explícito como la violencia física; la retórica de la participación y del compartir social, así como la promoción de la usabilidad y de una vida digital sin fricciones, típica de los servicios digitales, desvían la atención de las desigualdades de poder.
La manipulación ejercida por los poderes corporativos está pensada para ser sutil, guiando y empujando suavemente a los usuarios a comportarse de maneras comercialmente beneficiosas.
El lente que ofrece la geografía digital del miedo hace visible el carácter pautado de las experiencias personales al centrarse en la naturaleza colectiva de la inseguridad y en sus vínculos con las estructuras de poder subyacentes.
Los vocabularios emocionales locales tienen una importancia clave porque contienen un conocimiento íntimo de las experiencias con los algoritmos y enriquecen el análisis de cómo se sienten los algoritmos y de cómo se responden las relaciones entre humanos y tecnologías.
Las articulaciones de las reacciones emocionales, incluida la experiencia de calentarse, nos empujan a ver vulnerabilidades que normalmente pasan desapercibidas.
Puede pensarse en las experiencias de miedo y angustia descritas en este ensayo como consecuencias de fallos de sistema, en el sentido de que revelan asimetrías de información y prácticas de poder asociadas.
Las respuestas emocionales, reiteradas una y otra vez en las reflexiones personales, reclaman ir más allá del individuo, dan forma a los efectos sentidos de los algoritmos y, en última instancia, plantean interrogantes más generales sobre las agencias algorítmicas y sobre cómo deberían abordarse colectivamente.
* Sobre la autora:
Minna Ruckenstein es profesora de Emerging Technologies in Society en el Consumer Society Research Centre de la Universidad de Helsinki, donde dirige el laboratorio The Datafied Life Collaboratory, dedicado a estudiar la digitalización y la dataficación desde sus dimensiones emocionales, sociales, políticas y económicas. Su trabajo se sitúa en la intersección entre la antropología de la tecnología, los estudios de ciencia y tecnología y la economía del consumo, con especial atención a la cultura algorítmica y a las experiencias cotidianas de vigilancia y extracción de datos. Es autora de The Feel of Algorithms (University of California Press, 2023), un libro fundamental sobre cómo las personas “sienten” y viven los sistemas algorítmicos en su día a día.
* Imagen: “Don’t forget the tomatoes” (2018), de Banele Khoza.
* Fuente: “The Digital Geography of Fear”, capítulo del libro The Feel of Algorithms (University of California Press, 2023) de Minna Ruckenstein. Traducción: ‘Hypermedia Magazine’.









