
“La IA es una herramienta de control estratégico”, una conversación con Meredith Whittaker, presidenta de Signal.
Cegados por los falsos milagros de ChatGPT, estamos volviendo a rendirnos ante los señores de la tecnología.
Sin embargo, el modelo económico de la IA no es nada nuevo.
Meredith Whittaker, presidenta de la aplicación de mensajería encriptada Signal, advierte de las consecuencias que podría tener el estallido de una burbuja.
En un momento en el que el desarrollo de la IA parece conducir mecánicamente a una mayor centralización del poder en manos de unos pocos actores, ¿es aún posible luchar contra los monopolios?
Para responder a su pregunta, me sentiría tentada de hacer un repaso histórico para ver las cosas al revés de lo que se nos suele presentar.
La constatación de una concentración masiva de poder en manos de unas pocas empresas, impulsada por la IA, no es una opinión: se basa en un análisis material y una visión político-económica de la historia de la industria tecnológica —que conozco desde dentro por haber trabajado en este campo en Google entre 2006 y 2019—.
El comienzo de la década de 2010 fue un periodo muy determinante para la empresa, durante el cual la IA llegó, en cierto modo, a buen puerto en una forma estabilizada. También fue durante este periodo cuando resurgió el paradigma del deep learning.
Para comprender de qué se habla cuando se menciona la IA, es necesario comprender la historia del modelo comercial de las plataformas y las razones de la gran bifurcación de Internet en la década de 1990.
Durante los últimos ochenta años, se han agrupado bajo el término genérico de “IA” numerosos enfoques tecnológicos muy heterogéneos.
El aprendizaje profundo (deep learning) es uno de esos enfoques, hoy dominante.
Durante la década de 2010 se produjo un gran cambio, del que pocos comprendieron realmente la magnitud.
El aprendizaje profundo se impuso hasta convertirse en sinónimo de lo que hoy llamamos IA.
¿Por qué este enfoque, bastante marginal hasta la década de 2010, resurgió de repente para llegar a encarnar por sí solo todo lo que consideramos IA?
La explicación es muy sencilla: debido al modelo económico de las plataformas.
En la década de 1990, se animó a las plataformas digitales a desarrollarse a toda costa siguiendo una lógica probada: crear redes de comunicación no reguladas, capturar el efecto de red, conquistar el mercado, lograr economías de escala y recopilar tantos datos como fuera posible para alimentar un modelo económico basado en la publicidad y la vigilancia.
Así, a principios de la década de 2010, Facebook, Google, Amazon Marketplace y Microsoft ya habían calibrado sus capacidades de cálculo para almacenar y procesar grandes cantidades de datos. Las infraestructuras para la IA estaban ya en marcha: eran las mismas que habían sustentado su modelo económico.
Además de estas capacidades de cálculo, estos actores también disponían de plataformas masivas en las que almacenaban y procesaban cantidades colosales de datos.
En ese momento, comprendieron que el enfoque del deep learning, basado en ciertos avances de la década de 1980, como la retropropagación en la que había trabajado Yann Le Cun, por ejemplo, volvía a ser relevante, ya que ahora era posible probar estos algoritmos a escala de estos modelos comerciales.
¿Cómo explica su éxito?
Funcionaba muy bien para optimizar un flujo de redes sociales basado en el compromiso.
Es sorprendente cuando se analizan las cosas de forma más concreta. Si comparamos, por ejemplo, los avances de la IA con los cambios introducidos en el algoritmo de YouTube y las preocupaciones relativas, por ejemplo, la radicalización o las razones por las que nos bombardean con vídeos que provocan ira o nos mantienen pegados a las pantallas, nos damos cuenta de que los modelos de IA —los modelos de aprendizaje profundo— se probaron primero en algoritmos como el de YouTube.
En otras palabras, su primera aplicación —que también fue una primera prueba— fue optimizar las redes sociales financiadas por la publicidad.
Solo a partir de este modelo basado en el compromiso se pudo construir un modelo comercial más amplio, centrado en lo que ahora se conoce como IA.
Por eso me pareció importante hacer este repaso de la historia de las redes sociales: permite comprender por qué lo que llamamos IA no es en realidad una innovación.
De lo que estamos hablando es de una forma política y económica de captar el mercado basada en un modelo comercial de vigilancia y una concentración de poder que se apoya en los efectos de red. Es este modelo el que ha vuelto a dar relevancia a un determinado tipo de IA.
La IA se ha presentado falsamente como una innovación científica, cuando en realidad es el resultado de una concentración de poder entre unos pocos actores históricos que se impusieron durante la fase de acumulación primitiva de la comercialización de Internet.
Sin embargo, ¿no estamos viendo surgir startups de IA, pequeñas empresas que están creando modelos que funcionan tan bien como los de los gigantes?
Efectivamente, existen varias startups especializadas en IA.
En Europa, pensamos en Mistral y otras que son capaces de construir grandes modelos eficaces.
Pero si examinamos todo el proceso, desde el desarrollo de un modelo hasta su monetización, vemos que el mercado sigue estando extremadamente concentrado y que los hyperscalers siempre tendrán una ventaja única sobre todos sus competidores.
Así, aunque Mistral sea capaz de construir su propio modelo, el acceso al mercado sigue haciendo que este modelo dependa de un hyperscaler. Una start-up da acceso al modelo de Mistral a través de un servidor de Amazon Web Services u otro proveedor de infraestructura.
Por lo tanto, el acceso al mercado está controlado por quienes poseen servidores en la nube, que conceden licencias de acceso y comercializan bajo diferentes nombres y marcas el protocolo de un modelo determinado, o por quienes disponen de plataformas en las que pueden integrar un modelo de IA.
Sin embargo, en la actualidad no existe ningún otro mercado tan completo como el de Estados Unidos en términos de dominio del sector de la IA.
Si se analiza un poco más a fondo, se observa que varias startups solo comercializan Chat GPT con diferentes nombres, combinando una serie de códigos de libre acceso y creando una nueva interfaz de usuario.
El día en que Open AI —o Microsoft, que parece querer tomar el control— quiera cambiar su modelo, sus tarifas o sus autorizaciones, o se vea sancionado por las autoridades públicas, los actores más pequeños sufrirán directamente los efectos y tendrán que alinearse.
Según usted, la IA sería, en el mejor de los casos, una burbuja…
Es evidente: hay una burbuja de IA.
Las empresas están valoradas, pero no obtienen beneficios, ni siquiera alcanzan el umbral de rentabilidad.
Los gastos de inversión son fantasiosos y las promesas cada vez más difíciles de creer. Se está metiendo mucho aire en este globo, que no deja de inflarse. Pero aún no se ve cómo podría ser el retorno de la inversión.
Por el contrario, se ven muchos esquemas de deuda circular.
Un ejemplo reciente fue la inversión de Nvidia en Open AI. El precio de las acciones de Open AI está aumentando. Pero la valoración de Nvidia también depende de la de Open AI. Por lo tanto, esto también estimula sus acciones y recuperan su dinero.
Por otra parte, estas inversiones en startups de IA no se realizaron en forma de dinero, sino en forma de acceso a las infraestructuras de estos hyperscalers para que los modelos sirvieran para mejorarlas, lo que provocó una subida del precio de las acciones de los hyperscalers.
Al mismo tiempo, las promesas hechas en el mercado se alejan cada vez más de la realidad material del funcionamiento de estos sistemas, de sus límites y de sus umbrales reales.
Así que sí: hay una burbuja.
Sin embargo, matizaría esto con una dimensión nada desdeñable: en el plano geopolítico, la IA es una herramienta de control estratégico.
¿Qué entiende por “control estratégico”?
El 70% del mercado mundial de infraestructuras en la nube está controlado por tres empresas estadounidenses.
El Gobierno estadounidense y el sector privado son muy conscientes de ello.
Se trata de una ventaja geopolítica extraordinaria.
No tengo un concepto definido para ello, pero estoy seguro de que se podría encontrar uno…
Por ejemplo.
Se pueden modificar las herramientas, los protocolos, la estructura tarifaria, pero eso no cambiará un hecho esencial: los gobiernos, las instituciones y todas las startups europeas especializadas en IA siguen funcionando principalmente con infraestructura estadounidense o, como mínimo, necesitan acceder a ciertas partes de esa infraestructura.
Lo vemos muy concretamente en nuestra vida cotidiana. Cuando la nube de Amazon falla, el 30% de Internet deja de funcionar, y estas interrupciones nos afectan a todos.
Si utilizas una infraestructura en la nube europea, probablemente utilices Amazon DynamoDB o uno de esos servicios alojados en Amazon Web Services, donde las herramientas, las normas y todo lo demás son gestionados por Amazon.
La posición dominante y hegemónica de estos actores tiene consecuencias.
Es estratégica para el Gobierno estadounidense.
Con una pregunta: si la burbuja estalla, ¿el Estado federal la volverá a inflar rescatando las arcas de estas empresas?
No tengo la respuesta.
¿Qué debería hacer Europa en esta situación?
Para empezar, debería aplicar estrictamente el RGPD.
Se trata de un reglamento que ya existe y que, interpretado de forma conservadora, podría llevar a la prohibición de la publicidad de vigilancia, cortando los flujos de datos hacia los actores históricos de la IA y alterando realmente esta concentración de poder. La solución está ahí.
Sin embargo, existe un problema de voluntad política y de mentalidad: todos quieren atribuirse el mérito de haber regulado sin utilizar realmente las herramientas disponibles.
¿En qué sentido?
No soy una responsable política. Me paso el día pensando en el desarrollo y el mantenimiento de infraestructuras críticas para las comunicaciones privadas.
Mi hipótesis es que a mucha gente le gusta estar cerca del poder, pero son menos los que realmente quieren oponerse a él.
Oponerse da miedo y es caro.
Es difícil demostrar que se está dispuesto a oponerse al poder establecido sin perder el puesto en la mesa de negociaciones.
En cuanto a las medidas que hay que tomar, me parece importante destacar un aspecto muy práctico: existe una convergencia de intereses masiva. Deberíamos ser capaces de encontrar un incentivo común entre actores tan diversos como las organizaciones de defensa de los derechos humanos, todos los gobiernos y todos los ejércitos, para denunciar algunas de las aplicaciones de la IA, ya que la forma en que estos modelos y sistemas de IA se integran en las infraestructuras críticas es muy arriesgada.
Se han olvidado por completo las reglas básicas de la ciberseguridad. Cosas que habrían hecho reír a todo el mundo en Google hace ocho años se aceptan hoy sin pestañear.
¿En qué piensa exactamente?
El deseo desesperado de encontrar el mercado que satisfaga a los inversores y alcanzar el umbral de rentabilidad conduce a decisiones cada vez más imprudentes: estamos socavando nuestras infraestructuras básicas al confiar en modelos de lenguaje (LLM) que no son seguros.
Un estudio reciente de Anthropic ha demostrado que basta con 250 documentos “contaminados” en la base de datos de un LLM, independientemente de su tamaño —a veces pueden contener varios miles de millones de datapoints— para crear una brecha que permita manipulaciones que empujen a los LLM a realizar acciones maliciosas.
Dicho así, resulta un poco abstracto, pero para entenderlo basta con pensar que es imposible limpiar una masa informe de datos que se ha recopilado a granel en todo Internet.
También nos enfrentamos a estafadores que venden acceso a las API —las interfaces entre los modelos y las aplicaciones— y a los LLM a nuestros militares para tomar decisiones.
Nos conviene denunciar esta situación y poner fin a la hemorragia.
También nos conviene denunciar la integración de los “agentes” —que en realidad es un término de marketing que designa a los robots que realizan tareas complejas por nosotros sin pedirnos permiso—. Para reservar una entrada para ir al cine, avisar a tus amigos o hacer una reserva en un restaurante, estos “agentes” necesitan acceder a una enorme cantidad de datos de una manera muy poco segura. El “agente” necesita acceder a tu tarjeta de crédito, a tu navegador para buscar un restaurante, a tu historial de navegación, a tu calendario, a todos tus eventos, incluso a tu mensajería Signal, que utilizas para comunicarte con tus amigos.
Se trata de una falla en la arquitectura de seguridad en la que confiamos. En parte, se basa en una creencia errónea, pero aún muy extendida: los desarrolladores y los usuarios confían en que se trata de plataformas neutrales que harán lo que les pidamos. Sin embargo, estas plataformas son instrumentalizadas por agentes de IA muy poco seguros, que utilizan comandos en lenguaje natural muy difíciles de proteger, datos casi imposibles de limpiar y que crean una puerta trasera en aplicaciones como Signal, donde nuestro cifrado ya no importa, ya que basta con aprovechar este agente que tiene acceso interno a tu dispositivo para acceder a tus datos de Signal.
Se trata de una amenaza existencial para la seguridad y la confidencialidad a nivel de la capa de aplicaciones, una seguridad y confidencialidad en las que se basan todos los ejércitos, todos los gobiernos y todas las organizaciones de defensa de los derechos humanos.
Cualquier persona con conocimientos técnicos básicos no puede negar este análisis.
Nos corresponde a nosotros darlo a conocer lo más ampliamente posible para poner fin a esta locura.
* Artículo original: “Burbuja de la IA: “El 70% de la nube está controlada por tres empresas estadounidenses”, una conversación con Meredith Whittaker, presidenta de Signal”.










