Num movimento que ressalta as crescentes tensões geopolíticas no setor de inteligência artificial, o Departamento de Defesa dos Estados Unidos identificou formalmente a Anthropic, criadora do modelo de IA Claude, como um "risco para a cadeia de suprimentos". Esta designação, revelada em documentos internos e confirmada por fontes familiarizadas com o assunto, coloca uma das startups de IA mais proeminentes do mundo sob um escrutínio sem precedentes por parte das agências de segurança nacional. A decisão reflete uma preocupação profunda com a dependência de tecnologias fundamentais desenvolvidas por empresas consideradas vulneráveis a influência estrangeira ou a interrupções críticas, mesmo que essas empresas tenham sede nos Estados Unidos.
O contexto desta designação está enquadrado na corrida global pela supremacia em inteligência artificial, vista por Washington e seus aliados como uma competição estratégica de primeira ordem, particularmente com a China. Embora a Anthropic seja uma empresa norte-americana fundada por ex-pesquisadores da OpenAI, sua estrutura de financiamento e seu foco no desenvolvimento de IA segura e alinhada (AI Safety) a colocaram em uma posição única. O Pentágono e as agências de inteligência estão realizando avaliações abrangentes de toda a cadeia de valor da IA, desde os chips semicondutores e a infraestrutura em nuvem até os próprios modelos de linguagem grande (LLMs). A preocupação central não é a lealdade da Anthropic, mas a resiliência e a soberania tecnológica dos Estados Unidos em um campo onde dependências complexas podem se tornar pontos de falha críticos durante uma crise.
Dados relevantes indicam que os gastos do Departamento de Defesa em sistemas de IA e aprendizado de máquina ultrapassarão US$ 10 bilhões anuais nos próximos anos. A dependência de modelos avançados como Claude, GPT-4 ou Gemini para tarefas que vão desde análise de inteligência e cibersegurança até logística e simulação de combate, torna a continuidade e segurança desses fornecedores uma questão de segurança nacional. "Quando um modelo de IA é integrado em sistemas de comando e controle, ou na análise de inteligência de sinais (SIGINT), esse provedor se torna de fato parte da cadeia de suprimentos de defesa", explicou uma fonte do setor de defesa que falou sob condição de anonimato. "A avaliação de riscos não se limita mais aos fabricantes de mísseis; agora inclui os laboratórios de IA".
Embora nenhuma declaração oficial específica sobre a Anthropic tenha sido divulgada publicamente, um porta-voz do Departamento de Defesa reiterou a política geral em um comunicado: "O Departamento realiza avaliações contínuas de riscos para a cadeia de suprimentos em todos os setores tecnológicos críticos, de acordo com a Ordem Executiva 13873 e as diretrizes do Comitê de Investimento Estrangeiro nos Estados Unidos (CFIUS). Nosso objetivo é garantir a resiliência, a segurança e a confiabilidade das tecnologias fundamentais para a defesa nacional". Por sua vez, a Anthropic declinou comentar especificamente sobre a designação, mas uma declaração da empresa observou: "Mantemos um compromisso inabalável com a segurança, a transparência e o serviço aos nossos clientes, incluindo os do setor público. Cumprimos rigorosamente todas as regulamentações dos EUA e nossas operações são projetadas para priorizar a segurança nacional".
O impacto deste rótulo é multifacetado. Para a Anthropic, poderia complicar a obtenção de futuros contratos com o governo federal ou exigir a criação de estruturas de governança especiais para lidar com dados classificados. Em um nível mais amplo, sinaliza um ponto de inflexão: a indústria de IA, nascida na esfera comercial e acadêmica, está agora sendo formalmente militarizada e securitizada pelos Estados-nação. Isso poderia desencadear uma onda de regulamentações mais rígidas, exigir a localização de dados e capacidades de computação dentro das fronteiras nacionais e fomentar o desenvolvimento de "IA soberana" por parte dos governos. Para outras startups e gigantes da tecnologia, é um aviso claro de que seu trabalho será avaliado através da lente da segurança nacional, independentemente de suas intenções.
Em conclusão, a designação da Anthropic como risco para a cadeia de suprimentos pelo Pentágono é um sintoma de uma era em que a tecnologia de inteligência artificial de uso dual (civil e militar) tornou-se demasiado crítica para ser tratada apenas como um produto comercial. Ressalta a determinação de Washington em mapear e proteger cada elo da cadeia de inovação tecnológica contra concorrentes estratégicos. Este episódio provavelmente acelerará a bifurcação entre ecossistemas de IA alinhados com aliados e aqueles controlados por adversários, e forçará as empresas a navegar em um cenário onde os imperativos comerciais e de segurança nacional estão cada vez mais interligados. O futuro da colaboração público-privada em IA dependerá da capacidade das empresas de construir não apenas modelos poderosos, mas também infraestruturas confiáveis que possam resistir ao escrutínio dos guardiões da segurança nacional.




