A administração Trump argumentou em um processo judicial na terça-feira que não violou os direitos da Primeira Emenda da Antrópico ao designar o desenvolvedor de IA como um risco para a cadeia de suprimentos e previu que o processo da empresa contra o governo fracassará.
“A Primeira Emenda não é uma licença para impor unilateralmente termos contratuais ao governo, e a Anthropic não cita nada para apoiar uma conclusão tão radical”, escreveram os advogados do Departamento de Justiça dos EUA.
A resposta foi apresentada em um tribunal federal em São Francisco, um dos dois locais onde a Anthropic é contestando a decisão do Pentágono de sancionar a empresa com um rótulo que pode proibir empresas de contratos de defesa devido a preocupações sobre potenciais vulnerabilidades de segurança. A Anthropic argumenta que a administração Trump ultrapassou sua autoridade ao aplicar o rótulo e impedir que as tecnologias da empresa fossem usadas dentro do departamento. Se a designação se mantiver, a Anthropic poderá perder até bilhões de dólares na receita esperada este ano.
A Anthropic quer retomar os negócios normalmente até que o litígio seja resolvido. Rita Lin, a juíza que supervisiona o caso de São Francisco, marcou uma audiência para a próxima terça-feira para decidir se honrará o pedido da Antrópico.
Os advogados do Departamento de Justiça, escrevendo para o Departamento de Defesa e outras agências no documento de terça-feira, descreveram as preocupações da Anthropic sobre a potencial perda de negócios como “legalmente insuficientes para constituir um dano irreparável” e pediram a Lin que negasse à empresa um adiamento.
Os advogados também escreveram que a administração Trump foi motivada a agir por causa de “preocupações sobre a potencial conduta futura da Anthropic caso mantivesse o acesso” aos sistemas de tecnologia do governo. “Ninguém pretendeu restringir a atividade expressiva da Anthropic”, escreveram eles.
O governo argumenta que o esforço da Antrópico para limitar a forma como o Pentágono pode usar a sua tecnologia de IA levou o secretário da Defesa, Pete Hegseth, a determinar “razoavelmente” que “o pessoal da Antrópico pode sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter o design, a integridade ou a operação de um sistema de segurança nacional”.
O Departamento de Defesa e a Anthropic têm brigado por possíveis restrições aos modelos Claude AI da empresa. A Antrópica acredita que os seus modelos não devem ser usados para facilitar a vigilância ampla dos americanos e não são atualmente suficientemente fiáveis para alimentar armas totalmente autónomas.
Vários especialistas jurídicos disseram anteriormente à WIRED que a Anthropic tem um forte argumento de que a medida da cadeia de abastecimento equivale a uma retaliação ilegal. Mas os tribunais muitas vezes favorecem os argumentos de segurança nacional do governo, e funcionários do Pentágono descreveram a Anthropic como um empreiteiro que se tornou desonesto e cujas tecnologias não são confiáveis.
“Em particular, o DoW ficou preocupado com o fato de que permitir o acesso contínuo da Antrópica à infraestrutura técnica e operacional de combate do DoW introduziria um risco inaceitável nas cadeias de abastecimento do DoW”, afirma o documento de terça-feira. “Os sistemas de IA são extremamente vulneráveis à manipulação, e a Anthropic poderia tentar desativar a sua tecnologia ou alterar preventivamente o comportamento do seu modelo antes ou durante as operações de combate em curso, se a Anthropic – a seu critério – sentir que as suas ‘linhas vermelhas’ corporativas estão a ser ultrapassadas.”
O Departamento de Defesa e outras agências federais estão trabalhando para substituir as ferramentas de IA da Anthropic por produtos de empresas de tecnologia concorrentes nos próximos meses. Um dos principais usos militares de Claude é através Software de análise de dados Palantirpessoas familiarizadas com o assunto disseram à WIRED.
No processo de terça-feira, os advogados argumentaram que o Pentágono “não pode simplesmente apertar um botão num momento em que o Antrópico é atualmente o único modelo de IA autorizado para uso” nos “sistemas classificados e operações de combate de alta intensidade do departamento estão em andamento”. O departamento está trabalhando para implantar sistemas de IA do Google, OpenAI e xAI como alternativas.
Várias empresas e grupos, incluindo Pesquisadores de IAa Microsoft, um sindicato federal de funcionários, e ex-líderes militares entraram com ações judiciais em apoio à Antrópico. Nenhum foi apresentado em apoio ao governo.
A Antrópica tem até sexta-feira para apresentar uma contra-resposta aos argumentos do governo.
