La aparición de Overwatch, una plataforma de inteligencia artificial desarrollada por la empresa neoyorquina Massive Blue, ha marcado un antes y un después en la vigilancia policial digital en Estados Unidos. Este sistema, implementado principalmente en condados fronterizos de Arizona y Texas, ejemplifica el avance de la IA en la creación de identidades virtuales para infiltrarse en comunidades online y monitorizar desde redes criminales hasta movimientos de protesta universitaria.
¿Qué es Overwatch y cómo opera?
Overwatch es una plataforma que permite a los departamentos de policía crear “personas virtuales” —avatares digitales con perfiles detallados, historias creíbles y comportamientos adaptativos— para interactuar con sospechosos en redes sociales, foros y aplicaciones de mensajería. Según el reportaje “This ‘College Protester’ Isn’t Real. It’s an AI-Powered Undercover Bot for Cops” publicado en Wired, Massive Blue comercializa Overwatch como un “multiplicador de fuerza impulsado por IA para la seguridad pública”, capaz de desplegar agentes virtuales realistas que se infiltran e interactúan con redes criminales a través de múltiples canales digitales.
La plataforma ha sido financiada con fondos públicos destinados a combatir la trata de personas y otros delitos graves, pero su alcance se ha expandido a la vigilancia de activistas políticos y manifestantes universitarios. Los contratos con condados como Pinal han alcanzado los 360.000 dólares, aunque hasta la fecha no se ha reportado ningún arresto derivado directamente de su uso.
Arquitectura tecnológica y ejemplos de uso
La sofisticación de Overwatch radica en la capacidad de sus modelos de IA para generar perfiles extremadamente realistas. Según el artículo “Police Are Deploying Fake Personas To Catch Criminals—but No One’s Been Arrested” de Greenbot, los materiales de marketing de Overwatch afirman que la plataforma utiliza IA y blockchain para analizar el comportamiento de sospechosos, crear perfiles falsos en redes sociales y compilar informes de inteligencia (“Recon Reports”) que incluyen datos geográficos y transacciones en criptomonedas.
Entre los ejemplos presentados por Massive Blue destacan:
- Un “Child Trafficking AI Persona”: un adolescente gamer de 14 años, hijo único de inmigrantes ecuatorianos en Los Ángeles, que interactúa en Discord y oculta su actividad en redes sociales a sus padres.
- Un “Honeypot AI Persona”: una mujer de 25 años, hija de inmigrantes yemeníes, que maneja varios idiomas y se comunica a través de Telegram, Signal y SMS internacionales.
- Un “College Protester AI Persona”: una mujer divorciada de 36 años, sin hijos, activista, aficionada a la repostería y la positividad corporal, diseñada para infiltrarse en movimientos estudiantiles y protestas universitarias.
Las conversaciones simuladas muestran cómo estos bots buscan generar confianza, recopilar información incriminatoria o detectar posibles delitos, desde tráfico de personas hasta radicalización política. Sin embargo, la documentación interna no aclara cómo Overwatch identifica a los objetivos ni cómo verifica la información obtenida.
Alcance, eficacia y controversias
A pesar de la inversión y la sofisticación tecnológica, Overwatch no ha producido hasta ahora ningún arresto conocido. Según Wired, las autoridades de Pinal admiten que, aunque la herramienta ha generado “leads” o pistas, no ha habido resultados concretos en términos de detenciones. Otros condados, como Yuma y Cochise, han expresado escepticismo sobre la utilidad real de la plataforma y han optado por no continuar con su uso, como detalla el reportaje “This ‘College Protester’ Isn’t Real. It’s an AI-Powered Undercover Bot for Cops”.
La empresa Massive Blue, representada públicamente por figuras como el exagente fronterizo Chris Clem, ha promovido Overwatch como una especie de “cyberwall” para combatir desde la trata de personas hasta hackers. Sin embargo, se ha negado sistemáticamente a explicar los detalles técnicos o a compartir evidencia de su efectividad. En una reunión pública, Clem llegó a declarar: “Trabajé en un muro físico, ahora hemos creado un cyberwall. Creo que salvará vidas”, pero no ofreció detalles sobre el funcionamiento interno ni sobre los resultados obtenidos.
Riesgos legales y éticos
El uso de Overwatch ha encendido alarmas entre defensores de derechos civiles y expertos en tecnología. Dave Maass, de la Electronic Frontier Foundation, advierte en Greenbot que el despliegue de IA para simular activistas o manifestantes universitarios puede suponer una violación de derechos fundamentales, en especial la libertad de expresión y el derecho a la protesta. La falta de transparencia, la opacidad sobre los criterios de selección de objetivos y la posibilidad de vigilancia masiva sin control judicial son preocupaciones centrales.
El reportaje “AI bot personas may be undercover police” de The Verge subraya que los departamentos de policía estadounidenses están utilizando Overwatch para recopilar pruebas incriminatorias contra una amplia gama de individuos, desde presuntos traficantes de drogas y personas hasta activistas políticos y manifestantes universitarios. Un caso destacado es el de una “radicalized AI persona”, una mujer divorciada, vocal y solitaria, cuya biografía y aficiones han sido diseñadas para interactuar con grupos de activismo y protestas.
El artículo “Cops deploy undercover AI bots to infiltrate college protests: report” de Raw Story revela que las presentaciones internas de Massive Blue incluyen personajes como una “radicalized AI protest persona” y una “honeypot AI persona”, con backgrounds cuidadosamente elaborados para operar en redes sociales y apps de mensajería, y que están siendo utilizados o preparados para vigilar protestas universitarias.
La creación de perfiles como “college protesters” o “radicalized activists” plantea el riesgo de criminalizar la disidencia política y normalizar la vigilancia sobre ciudadanos que ejercen derechos constitucionales. Además, la opacidad de Massive Blue respecto a los métodos de identificación y verificación de objetivos alimenta el temor a errores, sesgos y abusos.
Debate institucional y falta de resultados
La falta de resultados tangibles ha generado dudas entre funcionarios y responsables de seguridad pública. Durante una reunión de la Junta de Supervisores del Condado de Pinal, recogida en Wired, se preguntó directamente si el software había sido efectivo y si había conducido a algún arresto. La respuesta oficial fue que, hasta el momento, no se habían producido detenciones, pero que el “proof of concept” había sido satisfactorio para continuar con el contrato.
El escepticismo se extiende a otros condados. En Cochise, tras asistir a una demostración del producto, el sheriff Jorge Brignoni escribió: “¿Por qué está hablando de convertir a la gente en compradores…? Habla del widget, no de cómo lo vendes a las fuerzas del orden”. Finalmente, Cochise optó por no adquirir Overwatch, en parte por la falta de claridad sobre su funcionamiento y resultados.
Implicaciones para el futuro de la vigilancia digital
El caso Overwatch es paradigmático del nuevo escenario de la vigilancia digital impulsada por IA. A medida que las tecnologías de generación de perfiles, análisis de comportamiento y automatización de interacciones se perfeccionan, aumenta el riesgo de que herramientas opacas y de eficacia no probada se utilicen para monitorizar no solo delitos graves, sino también la disidencia política y la protesta social. Como destaca Wired, la urgencia de regular y transparentar el uso de estas tecnologías es mayor que nunca, especialmente ante el precedente de la administración Trump, que revocó visas de estudiantes que participaron en protestas contra la guerra en Gaza.
Conclusión
Overwatch ejemplifica los dilemas y riesgos asociados al uso de IA en la vigilancia policial: una tecnología opaca, de eficacia no probada y con un potencial significativo para vulnerar derechos civiles. Mientras Massive Blue y algunos departamentos de policía la presentan como una herramienta revolucionaria, la ausencia de resultados y la falta de rendición de cuentas alimentan el debate sobre la legitimidad y los límites de la vigilancia digital.
El debate sobre Overwatch no solo es relevante para Estados Unidos, sino que anticipa discusiones globales sobre el papel de la inteligencia artificial en la seguridad pública, la privacidad y la protección de los derechos fundamentales en la era digital.