Durante décadas, las operaciones de influencia tuvieron un límite invisible: el trabajo humano. Escribir, traducir, distribuir, segmentar audiencias. Cada campaña tenía un techo operativo. Ese techo acaba de desaparecer.
En agosto de 2025, investigadores de la Universidad de Vanderbilt revelaron que GoLaxy, una empresa con vínculos con el gobierno chino, había desplegado campañas de propaganda impulsadas por IA en Hong Kong y Taiwán para moldear la opinión pública y suprimir la disidencia. No se trata de IA como herramienta de apoyo: GoLaxy construyó un sistema completo de perfilado psicológico a escala industrial. Al menos 117 legisladores estadounidenses en activo y más de 2.000 figuras públicas fueron perfilados para construir mensajes adaptados a sus rasgos psicológicos y a los de sus audiencias (AI propaganda has arrived; Vanderbilt experts call for action, Vanderbilt University, agosto 2025).
Lo que los documentos revelan no es una campaña concreta. Es la prueba de concepto de un nuevo modelo operativo.
La nueva economía de la mentira
Entender qué ha cambiado requiere separar dos preguntas que a menudo se mezclan: si la IA hace la propaganda más persuasiva y si la hace más barata. La respuesta a la primera es ambigua; la respuesta a la segunda es definitivamente sí.
Un estudio publicado en abril de 2025 en PNAS Nexus analizó el caso de DCWeekly.org, un sitio de propaganda vinculado a Rusia que adoptó herramientas de IA generativa para reescribir y producir contenido. Los resultados son elocuentes: el volumen de publicaciones se más que duplicó respecto al período anterior, la diversidad temática se amplió significativamente y, lo más relevante, los lectores evaluaron el contenido generado con IA como igual de persuasivo y creíble que el anterior. El coste bajó; la efectividad no (Generative propaganda: Evidence of AI’s impact from a state-backed disinformation campaign, PNAS Nexus, abril 2025).
Esto tiene una implicación directa: lo que antes requería equipos de redactores, traductores y gestores de cuentas ahora es ejecutable por un número reducido de personas con acceso a modelos de lenguaje. La barrera de entrada para una operación de influencia sostenida ha colapsado.
Operaciones reales, infraestructura sintética
El problema no es hipotético ni se limita a un actor estatal concreto.
En junio de 2025, OpenAI desarticuló cuatro operaciones vinculadas a China en un período de tres meses, incluida una denominada internamente «Sneer Review». La operación no solo generaba comentarios en redes sociales para simular participación orgánica; también usaba ChatGPT para redactar los informes internos que documentaban el funcionamiento de la propia campaña. El sistema se autoadministraba y se autodocumentaba mediante los mismos modelos que usaba para manipular. Eso solo es posible cuando la IA deja de ser una herramienta puntual y pasa a ser la columna vertebral de la operación (OpenAI takes down covert operations tied to China and other countries, NPR, junio 2025).
Por su parte, NewsGuard documentó en abril de 2025 cómo los principales chatbots repetían narrativas falsas vinculadas a la operación rusa Storm-1516 el 32% de las veces que se les consultaba sobre esos temas. La razón no es que los modelos sean cómplices: es que el espacio semántico del que se alimentan ha sido contaminado sistemáticamente. Storm-1516 opera creando redes de sitios locales falsos que indexan bien en buscadores, insertan narrativas en el ecosistema de búsqueda y esperan a que los sistemas de recuperación los absorban (Russian Propaganda Campaign Targets France with AI-Fabricated Scandals, NewsGuard, abril 2025).
La lógica es precisa: envenenar el espacio semántico es una estrategia de posicionamiento. Quien indexa primero define lo que los asistentes repiten después.
El colapso del coste como barrera estructural
Un análisis publicado en Foreign Affairs en noviembre de 2025 sintetizaba el problema con claridad: las campañas de propaganda han estado históricamente limitadas por el trabajo humano necesario para crear contenido, traducirlo y seleccionar objetivos. La IA elimina esas demandas, permitiendo que la guerra de información se libre a una velocidad y un nivel de sofisticación para el que muchos países no están preparados (AI Is Supercharging Disinformation Warfare, Foreign Affairs, noviembre 2025).
Pero la amenaza no es solo de velocidad. La advertencia más relevante del caso GoLaxy tiene que ver con personalización. Su ambición declarada era construir la capacidad de entregar millones de mentiras distintas y personalizadas a millones de individuos de forma simultánea. Eso representa una ruptura cualitativa con la propaganda de masas tradicional, que emitía el mismo mensaje a audiencias amplias y confiaba en que resonara estadísticamente. El modelo emergente construye perfiles psicológicos individuales y adapta el mensaje a cada perfil.
Lo relevante no es que esto sea más sofisticado. Es que es estructuralmente diferente.
Implicaciones: el problema es de infraestructura semántica
Hay una dimensión del problema que sigue recibiendo menos atención de la que merece: qué ocurre cuando la contaminación semántica se vuelve permanente.
Los asistentes conversacionales, los motores de búsqueda y los sistemas de recomendación no operan sobre hechos verificados. Operan sobre representaciones estadísticas del lenguaje humano, construidas a partir de los textos que circulan en la web. Si esos textos son envenenados a escala suficiente, los modelos que se entrenan sobre ellos aprenden y reproducen las narrativas contaminadas. Y si esos modelos, ya afectados, generan a su vez nuevo contenido que se indexa y circula, el ciclo se cierra sobre sí mismo.
Graphika señalaba en su informe de noviembre de 2025 que el contenido generado por IA en muchas operaciones activas es técnicamente de baja calidad: traducciones torpes, sitios con prompts de IA visibles en los titulares, vídeos sintéticos poco convincentes. Ese dato es relevante, pero puede dar una falsa sensación de control. Si el volumen es suficiente y la distribución está bien diseñada, la calidad individual del contenido importa menos que su presencia estadística en el ecosistema de recuperación (Cheap Tricks: How AI Slop Is Powering Influence Campaigns, Graphika, noviembre 2025).
El riesgo prioritario, desde esta perspectiva, no es el deepfake impecable ni la narrativa perfectamente construida. Es la saturación: suficiente contenido plausible, distribuido con suficiente persistencia, sobre los vectores correctos, para que cualquier sistema de recuperación estadística —incluidos los LLMs— lo trate como señal legítima.
Las democracias están estructuralmente más expuestas a esta dinámica que los sistemas con control centralizado de la información. No porque sean más débiles, sino porque el equilibrio que las sostiene —libre circulación de ideas, moderación descentralizada, confianza en el ecosistema informativo— fue concebido para un entorno donde la manipulación tenía fricción. Donde producir propaganda costaba tiempo y personas.
Esa fricción ya no existe. Lo que queda es la pregunta de qué infraestructuras son capaces de funcionar sin ella.