El 28 de febrero, durante la Operación Epic Fury, Estados Unidos desplegó por primera vez en combate drones de ataque desechables de bajo coste contra Irán. Esa misma semana, Rusia introducía drones FPV de fibra óptica en Kharkiv, una tecnología que elimina la firma electromagnética explotable por guerra electrónica. Algunos llaman a esto la primera guerra genuinamente mediada por IA.
No estamos ante un salto cuantitativo. Es cualitativo. Pero la parte importante no es la velocidad: es lo que ocurre en el nodo donde se toman las decisiones.
La compresión del juicio
En 2024, el 18º Cuerpo Aerotransportado del Ejército de EE.UU. usó IA para reducir un equipo de procesamiento de inteligencia de 2.000 personas a 20. El Proyecto Maven —aprendizaje automático sobre imágenes de drones— lleva años comprimiendo la carga de los analistas humanos. El objetivo declarado del ejército estadounidense es comprimir la kill chain: reducir el tiempo entre identificación del objetivo y uso de fuerza.
El dato de las 2.000 personas reducidas a 20 es espectacular. Pero la pregunta relevante no es cuánto se ahorran en recursos humanos, sino qué pasa con el juicio cuando lo que queda son 20 personas supervisando outputs algorítmicos en lugar de 2.000 construyendo criterio. La eficiencia y la accountability van en direcciones opuestas cuando el cuello de botella se desplaza del analista al modelo.
El dron LUCAS —ingeniería inversa del Shahed-136 iraní, completado en menos de dos años— es el emblema de esta lógica: barato, desechable, escalable. Combinar hardware económico y costoso «no es algo que EE.UU. haya hecho antes», según el CEO de la startup canadiense Dominion Dynamics. «Es la nueva forma de guerra.»
El problema, que conviene no pasar por alto, es que esos sistemas autónomos de bajo coste demostraron ser propensos a errores, difíciles de reparar y neutralizables mediante interferencia electrónica relativamente básica. La asequibilidad tiene un reverso: la superficie de ataque se democratiza también.
FlyTrap: cuando un paraguas derrota a una red neuronal
En febrero de 2026, investigadores de UC Irvine publicaron algo que merece más atención de la que ha recibido. Descubrieron una técnica de ataque contra drones de seguimiento autónomo de objetivos que funciona con un paraguas.
El mecanismo es preciso: un paraguas cubierto con un patrón visual diseñado específicamente engaña al sistema de seguimiento de redes neuronales. La lógica del ordenador del dron interpreta las imágenes como una persona alejándose, aunque esté estacionaria. El dron intenta mantener su distancia de seguimiento y se acerca progresivamente al portador del paraguas, hasta que puede ser capturado con una red o hacerse estrellar. Lo llamaron FlyTrap.
Es adversarial machine learning aplicado a objetos físicos. No un exploit de red, no una vulnerabilidad de firmware: una manipulación de la percepción del sistema. Lo que falla no es la conectividad del dron ni su hardware; falla su capacidad de interpretar el mundo. La conclusión del equipo es directa: «Si puedes manipular el cerebro IA de un sistema, puedes manipular su control.»
Esa frase vale para mucho más que los drones. Cuando el comportamiento de un sistema depende de cómo su capa de IA interpreta el entorno, atacar esa capa es atacar el sistema completo. No hace falta acceso a la red. No hace falta romper el cifrado. Basta con envenenar la percepción.
FlyTrap no es ciencia ficción. Es ingeniería de vulnerabilidad contra sistemas que ya están en teatros de operación: drones en Ucrania que evalúan objetivos y disparan de forma autónoma porque la interferencia de radio rusa hace ineficaz la operación remota.
Ciberguerra invertida: el cable como escudo
El 25 de febrero, Rusia empleó por primera vez un dron FPV de fibra óptica en Kharkiv. En lugar del enlace de control inalámbrico habitual, el dron desenrolla un cable físico durante el vuelo. Eso elimina la firma electromagnética que la guerra electrónica convencional explota —detección de señales, localización direccional, interferencia— de un golpe.
Es una respuesta de diseño a una vulnerabilidad estructural. Si el espectro electromagnético es el dominio donde el adversario tiene ventaja, la solución no es mejorar el cifrado: es salir del espectro. La lógica replica la de los submarinos nucleares diseñados para operar en entornos de comunicación negada. El cable tiene restricciones operacionales reales —alcance limitado, maniobrabilidad reducida, riesgo de enganche— pero es un ejemplo claro de algo que tiende a infravalorarse en los análisis de ciberseguridad: las defensas más efectivas a veces no ocurren en la capa lógica, sino en la capa física.
El nodo que nadie está protegiendo
Hay un hilo que atraviesa estos tres casos —la compresión del ciclo de targeting, FlyTrap, el dron de fibra óptica— y es este: el punto de mayor vulnerabilidad se ha desplazado hacia la capa donde la IA interpreta, filtra y recomienda. No hacia la red, no hacia el hardware, sino hacia el mecanismo de intermediación entre el dato y la decisión.
Brad Cooper, jefe del Comando Central de EE.UU., lo formuló sin ambigüedad: «Estos sistemas nos ayudan a filtrar vastas cantidades de datos en segundos, para que nuestros líderes puedan tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar.» Herramientas de IA que «pueden convertir procesos que solían tomar horas en segundos.»
El problema no es la velocidad en sí. Es que a medida que se comprime el tiempo disponible para decidir, los humanos tienden a diferir al algoritmo. No por negligencia: porque el contexto no da para más. Un comandante que tiene segundos para actuar no va a cuestionar la recomendación del sistema de targeting; va a confiar en ella. Y esa confianza estructural es exactamente la superficie de ataque.
Lo que FlyTrap demuestra a pequeña escala es lo mismo que opera a gran escala en los sistemas de inteligencia militar: si consigues que el modelo vea algo que no está ahí, o que no vea algo que sí está, la cadena de decisión completa trabaja sobre una realidad fabricada. Sin necesidad de acceso privilegiado. Sin necesidad de vulnerar el perímetro. Basta con actuar sobre lo que el sistema percibe como cierto.
Esa lógica —manipular la intermediación algorítmica para controlar el comportamiento de sistemas que confían en ella— no es exclusiva del campo de batalla. Funciona igual en cualquier entorno donde un sistema de IA actúe como filtro entre información y decisión. La guerra simplemente hace visible, con consecuencias más inmediatas, algo que ya está ocurriendo en otros dominios