Hay un momento preciso en el que la tecnología deja de ser herramienta y se convierte en doctrina. Ese momento no es el despliegue. Es cuando el sistema deja de necesitar al humano para tomar la decisión final. En el contexto militar, ese umbral se está cruzando ahora, con drones. Pero la misma arquitectura —y el mismo problema— está replicándose en silencio en sistemas mucho más cotidianos.
Empecemos por el caso más documentado.
Según un informe del Center for Strategic and International Studies, los drones ucranianos equipados con navegación autónoma elevan la tasa de éxito en el objetivo desde un 10-20% hasta un 70-80%. No es una mejora marginal. Es un salto operacional que multiplica la efectividad sin modificar el hardware. Lo que cambia es la capa de inferencia.
El operador humano como nodo de ratificación
Cuando un sistema como Maven fusiona imágenes satelitales, inteligencia de señales y feeds de drones, y genera recomendaciones de ataque más rápido de lo que un analista puede leer un informe, el operador humano deja de supervisar el proceso. Lo ratifica. La diferencia no es semántica: es arquitectónica. El humano no controla la decisión; valida un output que no diseñó, no puede auditar completamente y no tiene tiempo de interrogar.
El Pentágono formalizó esa lógica en enero de 2026 con el Orchestrator Prize Challenge, ofreciendo hasta cien millones de dólares a quienes desarrollen sistemas para que las tropas dirijan enjambres de drones mediante lenguaje natural, sin menús ni programación manual. El objetivo declarado es escalar. El efecto estructural es eliminar el cuello de botella humano.
La distinción que se pierde en este proceso —y que vale la pena nombrar con precisión— es la diferencia entre control humano y endorsement humano. Entre supervisar y aprobar. Esa distinción se vuelve conceptualmente imposible cuando el tiempo de decisión se comprime más allá de la capacidad cognitiva de una persona.
Cuando el modelo vive en el proyectil
En el contexto de los drones de combate, esto se traduce en un modelo pequeño de visión por computadora ejecutándose en un procesador barato dentro del propio aparato, tomando decisiones en tiempo real sin conexión con sistemas externos. Los drones FPV ucranianos incorporan cada vez más esta capacidad. Los drones rusos con fibra óptica, inmunes al jamming por radiofrecuencia, dependen por completo de ella.
La implicación técnica es relevante: aunque un modelo de frontera no esté involucrado en la decisión final de disparo, puede estar ejecutando cada paso de la cadena que conduce a ese punto, sin que ningún humano supervise el tramo terminal. El operador puede estar presente en la planificación de misión, en la nube, pero completamente ausente del momento de impacto, que ocurre en el edge. Son dos capas del mismo sistema, con niveles de supervisión radicalmente distintos.
La autonomía como imperativo, no como elección
Lo más revelador no son los sistemas en sí, sino cómo se justifican. Sven Weizenegger, responsable del German Cyber Innovation Hub, lo formuló sin eufemismos en una entrevista con MIT Technology Review: «Si no tienes la gente, no puedes controlar tantos drones, así que necesitas tecnologías de enjambre: sistemas autónomos. Suena muy duro —dijo, refiriéndose a eliminar al humano del bucle—, pero se trata de ganar o perder. Solo hay estas dos opciones. No hay tercera.»
Eso es la doctrina que emerge: la autonomía no como elección técnica sino como consecuencia lógica de la escasez de operadores y la velocidad del conflicto.
La misma arquitectura, en entornos sin consecuencias inmediatas
Hasta aquí, el análisis de los drones. Pero hay una razón por la que este caso importa más allá de la defensa.
La arquitectura que hace posible la autonomía de targeting —un modelo que comprime información, genera recomendaciones y pone al humano en posición de ratificar más que de decidir— es funcionalmente idéntica a la que opera en los sistemas de IA conversacional desplegados en entornos civiles. Un asistente de IA que resume resultados de búsqueda, recomienda acciones o presenta opciones preseleccionadas está ocupando el mismo lugar estructural: el humano interactúa con el output del modelo, no con la información que lo generó.
La diferencia de consecuencias es obvia. La diferencia de arquitectura, no tanto.
Lo que los sistemas de targeting militar hacen visible —porque las consecuencias son inmediatas y letales— es un problema que en otros contextos permanece invisible: quién controla realmente la capa de inferencia, bajo qué supuestos opera el modelo, y qué ocurre cuando esa capa puede ser manipulada desde fuera. El prompt injection en un asistente corporativo no mata a nadie. Pero si ese asistente tiene acceso a sistemas internos, toma decisiones sobre flujos de información o resume documentos para ejecutivos, el problema de quién está realmente «en el bucle» es estructuralmente el mismo.
La pregunta que el debate sobre autonomía militar debería trasladar a los sistemas civiles no es si la IA toma la decisión final. Es si el humano que aprueba tiene la capacidad real de entender, interrogar y rechazar lo que el modelo ha construido antes de que llegue a su pantalla.
Fuentes
CSIS · Ukraine’s Future Vision and Current Capabilities for Waging AI-Enabled Autonomous Warfare https://www.csis.org/analysis/ukraines-future-vision-and-current-capabilities-waging-ai-enabled-autonomous-warfare
Defense One · The Pentagon leans into drone swarms with a $100M challenge https://www.defenseone.com/technology/2026/01/pentagon-leans-drone-swarms-100m-challenge/410742/
MIT Technology Review · The future of autonomous warfare is unfolding in Europe https://www.technologyreview.com/2026/01/06/1129737/autonomous-warfare-europe-drones-defense-automated-kill-chains/