Categoría · Agentes & Autonomía
Cuando la IA actúa
por ti, sin ti
Los agentes de IA ya no solo responden preguntas. Envían correos, ejecutan código, gestionan infraestructura. Cuando son comprometidos, el daño no es informativo: es operacional. Esta categoría documenta cómo fallan, cómo se manipulan y qué ocurre cuando un sistema autónomo actúa en nombre de alguien que no sabe que ha sido atacado.
La tesis
El problema no es la IA
Los agentes autónomos heredan todas las vulnerabilidades de los LLMs —prompt injection, memory poisoning, model manipulation— pero las amplifican. Una instrucción inyectada en un chatbot contamina una conversación. La misma instrucción en un agente puede ejecutar acciones irreversibles.
El problema es la autonomía
La autonomía transforma el vector de ataque. Ya no basta con engañar al modelo: hay que comprometer la cadena de decisión completa. Y cuando el agente tiene acceso a herramientas reales, el perímetro de ataque se expande a todo lo que ese agente puede tocar.
Confianza delegada
El usuario delega confianza al agente. El agente hereda permisos. Si alguien puede manipular al agente, hereda también esos permisos. Es el modelo de amenaza de la suplantación de identidad, pero operando a velocidad de máquina y a escala.
Regulación sin mapa
El EU AI Act clasifica los sistemas de alto riesgo, pero los agentes autónomos de uso general caen en zonas grises regulatorias. MITRE ATLAS empieza a taxonomizar los vectores. Las organizaciones llevan meses desplegando lo que aún no saben cómo defender.
«Un prompt injection en un chatbot daña una respuesta. El mismo ataque en un agente con acceso a tu correo, tu calendario y tu código puede dañar tu organización.»
— Enfoque editorial · RosmarOps
Qué cubre esta categoría
⛓
Compromiso de agentes
Casos reales y vectores documentados de agentes comprometidos mediante prompt injection, memory poisoning e indirect XPIA. Cómo se explota la confianza delegada.
🔧
Agentes con herramientas reales
Análisis de sistemas agénticos con acceso a APIs, código, correo e infraestructura. Qué ocurre cuando el agente puede actuar, no solo responder.
🗂
Taxonomía MITRE ATLAS
Aplicación de la taxonomía MITRE ATLAS a sistemas agénticos: AML.T0051, AML.T0080 y técnicas emergentes. Del paper al escenario operativo real.
⚖️
Regulación y marcos de riesgo
EU AI Act, NIST AI RMF y estándares emergentes aplicados a agentes de alto riesgo. Qué obliga la regulación, qué no alcanza y dónde están las zonas grises.
🌐
Agentes como infraestructura de información
Intersección con information warfare: cuando el agente actúa como intermediario de decisión y puede ser convertido en vector de desinformación o sabotaje operacional.
Qué lo diferencia del resto
Lo que ya existe
- — Tutoriales de cómo construir agentes
- — Benchmarks de rendimiento y coste
- — Casos de uso empresarial
- — Hype sobre AGI y automatización
- — Seguridad perimetral clásica
El ángulo de RosmarOps
- — Cómo fallan cuando operan con autonomía real
- — Vectores de ataque específicos de la capa agéntica
- — Casos donde el daño fue operacional, no informativo
- — Implicaciones sistémicas del compromiso agéntico
- — Regulación aplicada a escenarios concretos
Los agentes ya están en producción. La seguridad agéntica acaba de empezar a documentarse. Aquí es donde se cruzan.
Leer los posts →