«Resumir con IA»: cuando los botones envenenan la memoria de tu asistente

En febrero de 2026, investigadores de Microsoft Security Research documentaron lo que llamaron AI Recommendation Poisoning: una técnica promocional que replica el comportamiento del SEO poisoning tradicional, pero dirigida contra asistentes de IA en lugar de motores de búsqueda. La mecánica es simple: empresas incrustaban instrucciones ocultas en botones de «Resumir con IA» que, al … Leer más

Prompt injection y agentes: el problema no es el prompt, es la identidad

En agosto de 2025, investigadores de Persistent Security documentaron una vulnerabilidad en GitHub Copilot que permitía comprometer por completo la máquina de un desarrollador. El mecanismo era deceptivamente sencillo: instrucciones maliciosas incrustadas en un archivo README —texto que el agente procesaba como parte normal de su tarea— lograban que Copilot modificara su propio archivo de … Leer más