En un movimiento que subraya las crecientes tensiones geopolíticas en el sector de la inteligencia artificial, el Departamento de Defensa de Estados Unidos ha identificado formalmente a Anthropic, la empresa creadora del modelo Claude, como un "riesgo para la cadena de suministro". Esta designación, revelada en documentos internos y confirmada por fuentes familiarizadas con el asunto, sitúa a una de las startups de IA más prominentes del mundo bajo un escrutinio sin precedentes por parte de las agencias de seguridad nacional. La decisión refleja una profunda preocupación por la dependencia de tecnologías fundamentales desarrolladas por empresas consideradas vulnerables a la influencia extranjera o a interrupciones críticas, incluso si dichas empresas tienen su sede en Estados Unidos.
El contexto de esta designación se enmarca en la carrera global por la supremacía en inteligencia artificial, vista por Washington y sus aliados como una competencia estratégica de primer orden, particularmente con China. Aunque Anthropic es una empresa estadounidense fundada por exinvestigadores de OpenAI, su estructura de financiación y su enfoque en el desarrollo de IA segura y alineada (AI Safety) la han colocado en una posición única. El Pentágono y las agencias de inteligencia están realizando evaluaciones exhaustivas de toda la cadena de valor de la IA, desde los chips semiconductores y la infraestructura en la nube hasta los propios modelos de lenguaje grandes (LLMs). La preocupación central no es la lealtad de Anthropic, sino la resiliencia y soberanía tecnológica de Estados Unidos en un campo donde las dependencias complejas pueden convertirse en puntos de falla críticos durante una crisis.
Datos relevantes indican que el gasto del Departamento de Defensa en sistemas de IA y aprendizaje automático superará los $10 mil millones anuales en los próximos años. La dependencia de modelos avanzados como Claude, GPT-4 o Gemini para tareas que van desde el análisis de inteligencia y la ciberseguridad hasta la logística y la simulación de combate, hace que la continuidad y seguridad de estos proveedores sea una cuestión de seguridad nacional. "Cuando un modelo de IA se integra en sistemas de comando y control, o en el análisis de señales de inteligencia (SIGINT), ese proveedor se convierte de facto en parte de la cadena de suministro de defensa", explicó una fuente del sector de defensa que habló bajo condición de anonimato. "La evaluación de riesgos ya no se limita a los fabricantes de misiles; ahora incluye a los laboratorios de IA".
Si bien no se han hecho públicas declaraciones oficiales específicas sobre Anthropic, un portavoz del Departamento de Defensa reiteró la política general en un comunicado: "El Departamento lleva a cabo evaluaciones continuas de riesgos para la cadena de suministro en todos los sectores tecnológicos críticos, de acuerdo con la Orden Ejecutiva 13873 y las directrices del Comité de Inversión Extranjera en los Estados Unidos (CFIUS). Nuestro objetivo es garantizar la resiliencia, la seguridad y la confiabilidad de las tecnologías fundamentales para la defensa nacional". Por su parte, Anthropic declinó comentar específicamente sobre la designación, pero una declaración de la empresa señaló: "Mantenemos un compromiso inquebrantable con la seguridad, la transparencia y el servicio a nuestros clientes, incluidos los del sector público. Cumplimos rigurosamente con todas las regulaciones estadounidenses y nuestras operaciones están diseñadas para priorizar la seguridad nacional".
El impacto de esta etiqueta es multifacético. Para Anthropic, podría complicar la obtención de futuros contratos con el gobierno federal o requerir la creación de estructuras de gobernanza especiales para manejar datos clasificados. A nivel más amplio, señala un punto de inflexión: la industria de la IA, nacida en el ámbito comercial y académico, está siendo ahora formalmente militarizada y seccuritizada por los estados. Esto podría impulsar una ola de regulaciones más estrictas, exigir la localización de datos y capacidades de computación dentro de fronteras nacionales, y fomentar el desarrollo de "IA soberana" por parte de gobiernos. Para otras startups y gigantes tecnológicos, es una advertencia clara de que su trabajo será evaluado bajo la lente de la seguridad nacional, independientemente de sus intenciones.
En conclusión, la designación de Anthropic como riesgo para la cadena de suministro por parte del Pentágono es un síntoma de una era en la que la tecnología de inteligencia artificial dual (civil y militar) se ha vuelto demasiado crítica para ser tratada únicamente como un producto comercial. Subraya la determinación de Washington de cartografiar y asegurar cada eslabón de la cadena de innovación tecnológica frente a competidores estratégicos. Este episodio probablemente acelerará la bifurcación entre ecosistemas de IA aliados y aquellos controlados por adversarios, y forzará a las empresas a navegar por un panorama donde los imperativos comerciales y de seguridad nacional se entrelazan cada vez más. El futuro de la colaboración público-privada en IA dependerá de la capacidad de las empresas para construir no solo modelos poderosos, sino también infraestructuras de confianza que puedan resistir el escrutinio de los guardianes de la seguridad nacional.




