“Lectura obligada”. “Una obra maestra”. Así califican algunas expertas la nueva edición del influyente informe sobre inteligencia artificial y poder del AI Now Institute. Un centro de referencia mundial que, desde 2017, lleva analizando consistentemente las dinámicas de poder en el desarrollo y despliegue de la IA, y su impacto sistémico y social.
El documento lanza una advertencia clara: el rumbo actual de la IA -controlado por un puñado de gigantes tecnológicos- “concentra el poder, socava la democracia, exacerba la desigualdad y no genera beneficios públicos”. Pero también sostiene que este futuro “no es inevitable y debe combatirse activamente”.
El informe, titulado ‘Artificial Power: 2025 Landscape Report’, lo firman las directoras ejecutivas del AI Now Institute: la investigadora Sarah Myers West y la experta en políticas tecnológicas Amba Kak, junto con su directora adjunta, Kate Brennan. En él, las autoras analizan la IA desde una perspectiva integral.
Se abordan los mitos de la industria, la manipulación del mercado, las grandes inversiones en infraestructura y las políticas industriales, la geopolítica de la carrera armamentística por el liderazgo en IA, los intentos de desregulación de la IA y sus impactos negativos. Por último, se presenta una hoja de ruta con propuestas de acción y políticas específicas.
Falsos “dioses” de la IA
El informe desarma uno de los pilares del discurso dominante: la narrativa de que la IA es una fuerza natural, inevitable, y esencial para el progreso humano. “El ‘hype’ sobre futuro de la IA nos aleja de una vida con dignidad”, advierte. “Unir nuestro futuro común a la IA hace que ese futuro sea más difícil, no más fácil, de alcanzar”.
Una de las mayores críticas en este sentido se dirige al mito del IA general (IAG), descrito como “el argumento para acabar con todos los argumentos”. Lejos de ser una realidad científica, el IAG funciona como tótem ideológico. Empresas como OpenAI, Anthropic o xAI la presentan como una tecnología inminente, casi mesiánica, capaz de resolver desde el cambio climático hasta el cáncer.
Esta fantasía de la superinteligencia es funcional. Le otorga a las grandes tecnológicas la capacidad de evadir responsabilidades presentes con promesas sobre capacidades futuras. El informe desmonta esa ilusión: no hay consenso científico sobre qué es la IAG ni sobre su viabilidad. Su función real, dice el texto, es política y económica: justificar inversiones, evitar regulaciones y alimentar el relato de inevitabilidad.
Esta mitología, combinada con campañas de miedo sobre los “riesgos existenciales” de la IA, funciona como cortina de humo para desviar la atención de los daños reales y presentes: precarización laboral, decisiones automatizadas opacas, vigilancia masiva, racismo algorítmico y captura institucional.
Burbuja inflada con dinero público
En paralelo, el informe documenta una estructura económica sin precedentes: la burbuja de la IA. Esta se refleja en las desorbitadas valoraciones de las empresas líderes en la industria, a pesar de sus enormes pérdidas. “Anthropic quemó 5.600 millones de dólares este año, pero fue valorada en 61.500 millones. OpenAI perdió 5.000 millones, pero está valorada en 300.000 millones”.
¿Cómo es posible? El modelo de negocio actual de la IA no es rentable, sino especulativo. Tal como está diseñada hoy, no es sostenible. “Las compañías pierden dinero por cada usuario que ganan”. ¿La solución? Recurrir al Estado.
El informe denuncia cómo las grandes tecnológicas “intentan desesperadamente reducir el riesgo de sus carteras a través de subvenciones gubernamentales y contratos públicos, a menudo en sectores militares”. Y anclan su dependencia en infraestructuras clave como la nube, en manos de los mismos actores.
Están vendiendo humo brillante para distraer del colapso financiero que se avecina, alerta el informe. ¿Cómo beneficia esto a la sociedad? Esta manipulación no solo engaña a inversores y mercados: también condiciona las políticas públicas, orientando recursos del Estado hacia una industria que aún no ha demostrado retornos sociales ni económicos reales.
Fiebre de infraestructuras
A esta dinámica se suma la carrera frenética, una especie de fiebre del oro por construir centros de datos y facilitar nuevas fuentes de energía para unas infraestructuras que son intensivas en consumo eléctrico, en subvenciones y en territorio. Ejemplo de ello son megaproyectos como Stargate: un consorcio creado por OpenAI, Oracle, Softbank y MGX, con Microsoft, NVIDIA y Arm como socios tecnológicos, y una inversión prevista de 500.000 millones de dólares.
El coste medioambiental es insostenible: “Los centros de datos ya consumen el 4,59% de toda la energía utilizada en EE.UU, una cifra que ha duplicado desde 2018”. También acarrean un elevado consumo hídrico y contaminación sonora. Las energías limpias no pueden compensarlo todo. Es más, en algunos contextos se está usando el auge de la IA para justificar el regreso al carbón y al petróleo.
El modelo de IA dominante no solo requiere más datos y más computación: exige rediseñar el sistema energético global para alimentar su crecimiento. Y todo ello, en gran medida, con fondos públicos, con la excusa de la innovación y el progreso, ¿de qué, de quién y para qué? Para asegurar el dominio de EE.UU en el mercado de la IA, garantizado por el gobierno y financiado por los contribuyentes.
Carrera por la IA
En paralelo, la narrativa de la “carrera armamentística” por la supremacía tecnológica entre EE.UU. y China se instrumentaliza para justificar dichas inversiones públicas, bloquear leyes y promover políticas industriales para el crecimiento de los gigantes tecnológicos estadounidenses. Bajo esa lente, se deslegitima cualquier intento de regular el sector como una amenaza al interés nacional.
“La fusión de los objetivos económicos y de seguridad nacional bajo la bandera de la carrera por la IA entre EE.UU y China es un activo crítico para las empresas estadounidenses: les garantiza apoyo estatal, inhibe la regulación y las posiciona como demasiado importantes como para fracasar”, apunta el análisis del AI Now Institute. Una especie de rescate financiero preventivo para empresas que aún no demuestran valor público.
Peor aún, mientras se destinan miles de millones a reforzar a actores privados como OpenAI, Google o Nvidia, se margina o ignora a otras formas de innovación más distribuidas, cooperativa y sostenibles. Las barreras de entrada son tan altas que solo unas pocas privilegiadas pueden competir, y todas lo hacen bajo el paraguas de los gigantes tecnológicos, de cuya infraestructura dependen.
Resulta paradójico: el Estado renuncia a regular en nombre de la seguridad, mientras fortalece actores privados que concentran poder económico, técnico y militar sin rendición de cuentas. Se usa el relato geoestratégico para desactivar cualquier intento de regulación o escrutinio público.
Esta lógica de excepción tecnológica se extiende globalmente. Muchos países están replicando versiones locales de esta estrategia de “nacionalismos de IA”, con iniciativas que buscan simultáneamente atraer inversión extranjera, construir capacidades propias y blindar a sus campeones nacionales.
Desregulación e innovación
El informe denuncia que la IA está funcionando como caballo de Troya para una agenda de desregulación. Bajo promesas de eficiencia y modernización, los gobiernos están adoptando herramientas automatizadas que sustituyen funciones públicas, recortan derechos y marginan la experiencia humana. Desde sistemas de precios dinámicos hasta algoritmos de selección laboral o distribución de beneficios sociales, se impone una lógica de austeridad tecnológica.
Sin una visión común de justicia, derechos y sostenibilidad, la carrera por la IA solo garantiza que todos corran más rápido hacia un futuro deshumanizado, no más justo. Además, muchos de estos sistemas son opacos, inseguros y difíciles de impugnar, y su uso es a menudo invisible. El resultado es una infraestructura que refuerza las estructuras de poder existentes y erosiona los mecanismos democráticos.
Para justificar todo esto, la narrativa es clave. No solo la de la geoestrategia, sino la idea de que cualquier forma de regulación es una amenaza para el progreso tecnológico (que no es lo mismo que el progreso humano). Es una falacia que presenta una falsa dicotomía, minimiza los riesgos reales de la IA y convierte a los reguladores en “enemigos del progreso”.
Esta visión ignora que la regulación desempeña un papel crucial en fomentar la innovación de impacto, equitativa y segura. Es decir, la buena regulación no solo protege derechos, sino que puede establecer estándares de calidad, impulsar nuevos modelos de negocio, abrir el mercado a actores más pequeños y promover la innovación pública.
A pesar de ello, la narrativa de la desregulación está calando también en Europa, una superpotencia regulatoria que está cediendo a las presiones y chantajes de Trump y de la industria de la IA y las ‘big tech’. Las tensiones se han escenificado recientemente en los tira y afloja de las grandes tecnológicas para tratar de diluir el texto final del ‘Código buenas prácticas de IA de propósito general’( que detallará las normas de la Ley de IA para los proveedores de IA generativa, entre otros).
La organización Corporate Europe Observatory ha denunciado a la Oficina Europea de IA por conflicto de intereses, ya que dos de las consultoras que están ayudando en la elaboración de este código “tienen intereses comerciales creados y estrechos vínculos con grandes empresas tecnológicas que desarrollan IA de propósito general”.
Otra señal clara de los esfuerzos de lobby antiregulatorios es la apertura del gran bastión de la regulación digital de la UE: el Reglamento General de Protección de Datos (RGPD), para introducir modificaciones que “discriminan estructuralmente al usuario y otorgan un trato preferencial a las grandes tecnológicas”, según han denunciado Noyb y otras organizaciones de la sociedad civil.
Por si fuera poco, la CE está considerando detener la aplicación de la Ley de IA, junto con enmiendas específicas de simplificación. Todo esto va en línea con el anuncio de “desregulación que la propia presidenta de la CE, Ursula von der Leyen, hizo en febrero en el AI Action Summit. Anuncio al que siguió una propuesta de retirada de 37 normas (dos de ellas digitales).
Recuperar el control
Ante esta realidad, ¿cuál es la salida? Si bien el informe realiza un buen diagnóstico, flojea en las soluciones. Presenta una hoja de ruta con cinco puntos, bajo el imperativo de “enmarcar la IA como una cuestión de poder, no de progreso”. “La pregunta que deberíamos hacernos no es si ChatGPT es útil o no, sino si el poder irresponsable de OpenAI, vinculado al monopolio de Microsoft y al modelo de negocio de la economía tecnológica, es bueno para la sociedad”.
El primer punto de la hoja de ruta propone enfocar la crítica a la industria de la IA desde las condiciones materiales y los intereses económicos de la ciudadanía trabajadora, y desde la idea de que el poder político debe construirse desde abajo.
El segundo punto propone impulsar el poder sindical y la organización laboral como contrapeso democrático a la captura corporativa. En tercer lugar estaría promulgar una agenda política de “confianza cero” hacia las empresas de IA, con normas claras que restrinjan los usos más perjudiciales de la IA y regulen su ciclo de vida de principio a fin.
La cuarta propuesta pasa por conectar y fortalecer las redes de experiencia entre saber técnico, político y social, para crear políticas alineadas con el interés público. En quinto lugar, la necesidad de reclamar una agenda positiva de innovación centrada en lo público, que explore caminos más allá de la IA: recuperar el espacio para llevar a cabo una innovación real que aproveche la tecnología para dar forma a un mundo que sirva a las personas.
“No debemos resignarnos a la alarma pasiva ni participar en una celebración descuidada de futuros especulativos”, señalan las autoras. “El camino a seguir requiere recuperar la autonomía sobre la trayectoria de la IA y sembrar un nuevo camino definido por la autonomía, la dignidad, el respeto y la justicia para todos”.
Pero las buenas palabras no bastan, y nada de esto sucederá por arte de magia si no cambian los incentivos corporativos y sin una estrategia que responda a la realpolitik. La inteligencia artificial es una construcción política: responde a decisiones humanas concretas, influidas por intereses económicos específicos.
Lo que está en juego no es solo el diseño de sistemas inteligentes, sino quién decide su propósito, a quién sirven, y qué tipo de sociedad y qué mundo estamos construyendo. Esto no va de tecnología: va de democracia, de justicia y del futuro que estamos eligiendo… o dejando que otros elijan por nosotros.