
- La herramienta de IA Claude de Anthropic, desplegada en el terreno, tuvo una función cognitiva, convirtiéndose en un asesor táctico en tiempo real para los comandos estadounidenses desplegados en Caracas, durante el ataque del pasado 3 de enero
La información sobre la operación desarrollada en Venezuela en octubre de 2025 confirma una nueva realidad: la fusión operativa entre los grandes modelos de lenguaje (LLM) y los sistemas de inteligencia artificial de combate desarrollados por Palantir.
El éxito dependió de un ecosistema integrado, un engranaje de tres niveles que trabajó en simbiosis: Claude y el Pentágono, mientras que la columna vertebral fue la plataforma Maven de Palantir.
Concebida originalmente como el Proyecto Maven del Pentágono, esta IA evolucionó hasta convertirse en el "sistema operativo de inteligencia artificial principal del Ejército de Estados Unidos".
No hablamos de un simple chatbot: Maven es un sistema de mando y control diseñado para acumular y fusionar datos masivos provenientes de múltiples fuentes –satélites, drones, señales de inteligencia, informes sobre el terreno– y, de manera autónoma, identificar y geolocalizar objetivos militares como vehículos, edificios o personas. Venezuela actuó como el campo de pruebas que validó su eficacia.
Según reportes del Wall Street Journal, la herramienta de IA Claude de Anthropic, desplegada en el terreno, no tuvo una función cinética –no apretó el gatillo–, sino cognitiva: procesó y sintetizó los terabytes de datos generados por Maven para proponer cursos de acción, depurar la selección de objetivos y predecir escenarios de resistencia, convirtiéndose en un asesor táctico en tiempo real para los comandos estadounidenses desplegados en Caracas.
La asociación estratégica anunciada en noviembre de 2024 entre Palantir y Anthropic permitió integrar oficialmente los modelos dentro del ecosistema clasificado, lo que permitió al Pentágono acceder a las capacidades del primero en redes de nivel de seguridad IL6 (Impact Level 6), el más alto para operaciones secretas.
En esencia, Anthropic proporcionó el razonamiento avanzado, mientras que Palantir aportó la plataforma de datos, la selección de blancos y el despliegue táctico.
Sin embargo, eso no fue todo, más allá del secuestro del presidente legítimo y en funciones de la República Bolivariana de Venezuela, el uso de la IA en esta operación desencadenó una sofisticada batalla cognitiva que, probablemente, fue orquestada mucho tiempo antes.
La contaminación del espacio informativo se convirtió en una tarea primordial; un ejemplo elocuente: las imágenes generadas por IA de Maduro secuestrado que circularon viralmente antes y después de la operación, sugieren una estrategia deliberada de "guerra cognitiva ofensiva".
El objetivo no era informar, sino desestabilizar, crear una "verdad alternativa", fragmentar la reacción tanto interna en Venezuela como en la comunidad internacional, sembrar la duda y la incertidumbre.
Es plausible que Claude, o sistemas similares, fueran utilizados no solo para planificar la misión, sino también para generar y orquestar campañas de desinformación. Su capacidad para procesar y generar lenguaje humano a gran escala permitió inundar las redes sociales con narrativas específicas, analizar la polarización de la opinión pública en tiempo real y sugerir los mensajes óptimos para influir en sectores clave de la sociedad venezolana o internacional.
En Venezuela se mostró la perfecta sincronización de una operación de fuerza con una campaña de inteligencia artificial para procesar inteligencia, planificar y manipular la percepción pública.
Empresas como Palantir se están convirtiendo en los nuevos "señores tecnológicos de la guerra". Urge que la comunidad internacional elabore normas vinculantes sobre el uso de grandes modelos de lenguaje en conflictos armados antes de que el hecho consumado vuelva irreversible esta nueva realidad. (Granma)