Las predicciones no se cumplieron. Según un reciente informe de Meta, menos del 1% de la desinformación verificada durante los ciclos electorales de 2024 fue contenido generado por IA. Los deepfakes no destruyeron las elecciones. Pero eso no significa que hayan fracasado como arma. Significa que estábamos mirando el campo de batalla equivocado.
El verdadero salto cualitativo no ocurrió en las urnas. Ocurrió en zonas de conflicto activo, donde la IA generativa dejó de ser herramienta de propaganda viral para convertirse en componente táctico de operaciones militares sincronizadas. La integración de deepfakes en conflictos como la guerra entre Irán e Israel o el enfrentamiento entre India y Pakistán en 2025 demuestra algo que el debate público sobre desinformación todavía no ha asimilado: el contenido sintético ha colapsado la distinción entre guerra de información y combate cinético, con deepfakes desplegados en menos de una hora tras ataques reales, según el informe AI-Driven Information Warfare del Bloomsbury Intelligence and Security Institute.
La diferencia de contexto es todo. En una elección, el deepfake compite con fact-checkers, sesgos previos y la lentitud del ciclo de noticias. En un conflicto militar, compite con el caos, la niebla de guerra y la necesidad urgente de tomar decisiones bajo incertidumbre. En ese entorno, las ventajas están del lado del atacante.
Desinformación sincronizada con el ataque: la ventana de confusión como arma
Las campañas de desinformación rusas en 2025 ya no están diseñadas para persuadir, sino para interrumpir, paralizar y controlar la percepción, según el análisis Russia’s information war 2025: disinformation as an operational weapon. Los ciclos de desinformación están embebidos en el plan operacional: cada ataque cibernético o salva de misiles lleva asociada una carga informativa diseñada para distorsionar la interpretación y retrasar la reacción.
Esto no es guerra narrativa. Es combate cognitivo. El objetivo no es que creas la mentira para siempre, sino que dudes de la verdad el tiempo suficiente para que la ventana de respuesta se cierre. Durante el conflicto entre India y Pakistán, circuló un deepfake del primer ministro Shehbaz Sharif editado para parecer que admitía la derrota —cuando el vídeo original mostraba exactamente lo contrario. La versión alterada usaba clonación de voz y sincronización labial para fabricar una narrativa completamente falsa pero inquietantemente creíble. El deepfake no necesita ser perfecto. Solo necesita introducir suficiente fricción cognitiva para que el adversario dude, recalcule, pierda iniciativa.
Por qué detectar deepfakes es más caro que crearlos
El problema estructural no es técnico. Es económico. Crear deepfakes convincentes cuesta significativamente menos que desarrollar y mantener sistemas de detección. El atacante necesita que uno pase. El defensor necesita que ninguno pase. Esa asimetría es difícil de resolver con más inversión tecnológica porque la brecha no para de crecer: los incidentes de deepfakes en el primer trimestre de 2025 superaron el total de todo el año 2024, y el volumen de archivos sintéticos verificados pasó de 500.000 en 2023 a una proyección de 8 millones en 2025, según el informe del BISI.
La velocidad de producción supera la capacidad de verificación. Los mecanismos de detección diseñados para desinformación masiva no escalan para monitorear contenido personalizado dirigido a millones de objetivos simultáneamente. Como señala AI Is Supercharging Disinformation Warfare en Foreign Affairs, la IA ha hecho significativamente más fácil desarrollar operaciones de influencia efectivas, a bajo coste y a escala. Lo que antes requería equipos especializados y semanas de trabajo, hoy lo ejecuta un operador individual en minutos.
Deepfakes en doctrina militar: no solo Rusia, también las democracias
Lo más inquietante no es que estados autoritarios utilicen estas técnicas. Es que el umbral ya lo han cruzado también las democracias. Israel desplegó contenido deepfake en la Operación PRISONBREAK dentro de la primera hora tras ataques reales, lo que indica que incluso estados democráticos tratan las operaciones psicológicas habilitadas por IA como capacidades militares esenciales. La barrera técnica se ha evaporado. La internet democratizó la producción de contenido, las redes sociales eliminaron los guardianes editoriales, y la IA generativa ha removido la última barrera: la habilidad técnica para crear medios fabricados altamente convincentes. La doctrina ha seguido a la capacidad.
La pregunta correcta no es si engañan masas, sino si paralizan decisiones
El debate público sigue atrapado en si los deepfakes son efectivos para engañar masas. La respuesta, como confirmaron las elecciones de 2024, es mayormente no. Pero esa no es la pregunta relevante. La correcta es: ¿pueden los deepfakes degradar la capacidad de respuesta en tiempo real de un adversario durante operaciones militares críticas? Y la respuesta, documentada en conflictos desde Ucrania hasta el golfo Pérsico, es sí.
No estamos ante una amenaza a la verdad en abstracto. Estamos ante una amenaza a la capacidad de procesar información fiable bajo presión, en ventanas temporales que se miden en minutos, no en días. La verificación post-facto no sirve cuando la decisión operacional ya se tomó.
El deepfake electoral fracasó porque competía contra el tiempo lento de la deliberación democrática. El deepfake militar funciona porque se sincroniza con el tempo del caos. Y en ese espacio, donde la incertidumbre es estructural y la velocidad es supervivencia, la mentira sintética no necesita ser creída. Solo necesita sembrar duda suficiente para que la verdad llegue demasiado tarde.
Fuentes: BISI — AI-Driven Information Warfare · Defence24 — Russia’s information war 2025 · IFJ — AI, Deepfakes, and the Fog of War · Foreign Affairs — AI Is Supercharging Disinformation Warfare