Tu chatbot tiene una puerta trasera: anatomía de un ataque de prompt injection

El problema que nadie quiere ver Cada vez que una empresa despliega un chatbot basado en LLM —ya sea para atención al cliente, asistentes internos o automatización de procesos— está abriendo una puerta. El problema es que esa puerta no siempre se cierra solo para los usuarios legítimos. Prompt injection ocupa el puesto número uno … Leer más

Drones de fibra óptica y kill chains a 60 segundos: cuando la ciberguerra se fusiona con el aire

El 28 de febrero, durante la Operación Epic Fury, Estados Unidos desplegó por primera vez en combate drones de ataque desechables de bajo coste contra Irán. Esa misma semana, Rusia introducía drones FPV de fibra óptica en Kharkiv, una tecnología que elimina la firma electromagnética explotable por guerra electrónica. Algunos llaman a esto la primera … Leer más

Cuando optimizar para LLMs te convierte en atacante

En una investigación presentada en ICLR 2025, un equipo demostró algo que no debería sorprender pero que cambia la forma de pensar sobre el SEO: es posible manipular las recomendaciones de un LLM mediante contenido web diseñado para promover productos propios y desacreditar a competidores. Los ataques fueron validados en producción, en motores como Bing … Leer más

La capa de inferencia: cuando aprobar ya no es lo mismo que decidir

Hay un momento preciso en el que la tecnología deja de ser herramienta y se convierte en doctrina. Ese momento no es el despliegue. Es cuando el sistema deja de necesitar al humano para tomar la decisión final. En el contexto militar, ese umbral se está cruzando ahora, con drones. Pero la misma arquitectura —y … Leer más

La instrucción como vector de ataque: la inyección de prompts como vulnerabilidad de diseño

Cuando una empresa despliega un asistente de IA sobre sus datos internos, asume que el modelo hará lo que le han pedido: responder preguntas, resumir documentos, ayudar al equipo. Lo que no suele asumir es que un tercero, sin acceso directo al sistema, pueda redirigir ese asistente para que filtre información, deshabilite sus propios filtros … Leer más

Prompt injection y agentes: el problema no es el prompt, es la identidad

En agosto de 2025, investigadores de Persistent Security documentaron una vulnerabilidad en GitHub Copilot que permitía comprometer por completo la máquina de un desarrollador. El mecanismo era deceptivamente sencillo: instrucciones maliciosas incrustadas en un archivo README —texto que el agente procesaba como parte normal de su tarea— lograban que Copilot modificara su propio archivo de … Leer más

El dilema del prisionero llegó a los LLMs: cuando envenenar la memoria de tu asistente es un servicio de marketing

En febrero de 2026, el equipo de seguridad de Microsoft publicó algo que merece más atención de la que está recibiendo: empresas legítimas están vendiendo toolkits para envenenar la memoria de tu asistente de IA. Servicios como AI Share URL Creator ofrecen herramientas point-and-click para generar URLs manipuladoras, publicitadas como «SEO growth hack para LLMs» … Leer más

El NIST pregunta cómo medir la seguridad de agentes. La pregunta ya es una respuesta

El 8 de enero de 2026, el Centro para Estándares e Innovación en IA (CAISI) del NIST publicó una solicitud formal de información dirigida a desarrolladores, investigadores y operadores de sistemas agénticos. No es una guía. No es una normativa. Es una pregunta abierta: ¿cómo medimos la seguridad de algo que toma decisiones autónomas, usa … Leer más

El agente ya no asiste: ejecuta el ataque completo

Durante años, el debate sobre IA y ciberseguridad giró en torno a capacidades futuras: qué podría hacer un modelo si alguien lo pusiera en las manos equivocadas, qué umbrales habría que cruzar, qué guardarraíles bastarían. Ese debate quedó zanjado en noviembre de 2025. Lo que se documentó entonces no fue un experimento ni una prueba … Leer más