La capa de inferencia: cuando aprobar ya no es lo mismo que decidir

Hay un momento preciso en el que la tecnología deja de ser herramienta y se convierte en doctrina. Ese momento no es el despliegue. Es cuando el sistema deja de necesitar al humano para tomar la decisión final. En el contexto militar, ese umbral se está cruzando ahora, con drones. Pero la misma arquitectura —y … Leer más

OpenAI admite que los navegadores agénticos siempre serán vulnerables

La separación entre instrucción y dato que los LLM nunca tuvieron En diciembre de 2025, OpenAI publicó algo inusual: una admisión explícita de que el prompt injection en navegadores agénticos es poco probable que se resuelva de forma completa, de la misma manera que no se resuelven las estafas o la ingeniería social en la … Leer más

El fin del límite humano: propaganda, IA y el colapso del coste operativo

Durante décadas, las operaciones de influencia tuvieron un límite invisible: el trabajo humano. Escribir, traducir, distribuir, segmentar audiencias. Cada campaña tenía un techo operativo. Ese techo acaba de desaparecer. En agosto de 2025, investigadores de la Universidad de Vanderbilt revelaron que GoLaxy, una empresa con vínculos con el gobierno chino, había desplegado campañas de propaganda … Leer más

La instrucción como vector de ataque: la inyección de prompts como vulnerabilidad de diseño

Cuando una empresa despliega un asistente de IA sobre sus datos internos, asume que el modelo hará lo que le han pedido: responder preguntas, resumir documentos, ayudar al equipo. Lo que no suele asumir es que un tercero, sin acceso directo al sistema, pueda redirigir ese asistente para que filtre información, deshabilite sus propios filtros … Leer más

La optimización invisible: cuando envenenar la memoria del asistente se convierte en estrategia SEO

En febrero de 2026, Microsoft documentó algo que hasta entonces sonaba a hipótesis: 31 compañías reales —no hackers, empresas con webs profesionales— embebiendo inyecciones de prompt ocultas en botones de «Resumir con IA» para manipular silenciosamente la memoria de Copilot, ChatGPT, Claude y Perplexity. El mecanismo era simple: cuando el usuario hacía clic, el asistente … Leer más

Deepfakes en operaciones militares: cómo el contenido sintético se convirtió en arma táctica

Las predicciones no se cumplieron. Según un reciente informe de Meta, menos del 1% de la desinformación verificada durante los ciclos electorales de 2024 fue contenido generado por IA. Los deepfakes no destruyeron las elecciones. Pero eso no significa que hayan fracasado como arma. Significa que estábamos mirando el campo de batalla equivocado. El verdadero … Leer más

El agente que no sabe con quién habla

Hay una pregunta que el caso OpenClaw deja sin responder, y que los análisis técnicos no acaban de formular: ¿qué significa confiar en un sistema que no entiende el contexto en el que actúa? OpenClaw es un agente de IA autónomo de código abierto que conecta con tus aplicaciones de mensajería, gestiona tu correo, ejecuta … Leer más