OpenAI admite que los navegadores agénticos siempre serán vulnerables

La separación entre instrucción y dato que los LLM nunca tuvieron En diciembre de 2025, OpenAI publicó algo inusual: una admisión explícita de que el prompt injection en navegadores agénticos es poco probable que se resuelva de forma completa, de la misma manera que no se resuelven las estafas o la ingeniería social en la … Leer más

El NIST pregunta cómo medir la seguridad de agentes. La pregunta ya es una respuesta

El 8 de enero de 2026, el Centro para Estándares e Innovación en IA (CAISI) del NIST publicó una solicitud formal de información dirigida a desarrolladores, investigadores y operadores de sistemas agénticos. No es una guía. No es una normativa. Es una pregunta abierta: ¿cómo medimos la seguridad de algo que toma decisiones autónomas, usa … Leer más

El agente ya no asiste: ejecuta el ataque completo

Durante años, el debate sobre IA y ciberseguridad giró en torno a capacidades futuras: qué podría hacer un modelo si alguien lo pusiera en las manos equivocadas, qué umbrales habría que cruzar, qué guardarraíles bastarían. Ese debate quedó zanjado en noviembre de 2025. Lo que se documentó entonces no fue un experimento ni una prueba … Leer más

Prompt‑Injection Bots: atacando asistentes de IA mediante entradas automatizadas

TL;DR – La inyección de prompts se ha industrializado: bots capaces de lanzar cientos de variantes por minuto están poniendo a prueba la seguridad de todos los asistentes basados en LLM. En ≈15 minutos de lectura aprenderás por qué sucede, cómo funciona y qué capas defensivas puedes empezar a aplicar hoy mismo. ¿Qué es la inyección … Leer más