Mais de 30 funcionários da OpenAI e do Google DeepMind apresentaram uma declaração na segunda-feira apoiando a Anthropic ação judicial contra o Departamento de Defesa dos EUA depois que a agência federal classificou a empresa de IA como um risco para a cadeia de suprimentos, de acordo com documentos judiciais.
“A designação de Antrópico pelo governo como um risco à cadeia de suprimentos foi um uso impróprio e arbitrário de poder que tem sérias ramificações para nossa indústria”, diz o documento, cujos signatários incluem o cientista-chefe do Google DeepMind, Jeff Dean.
No final da semana passada, o Pentágono rotulado como Antrópico um risco na cadeia de abastecimento – normalmente reservado a adversários estrangeiros – depois de a empresa de IA se ter recusado a permitir que o Departamento de Defesa (DOD) utilizasse a sua tecnologia para vigilância em massa de americanos ou para disparo de armas de forma autónoma. O DOD argumentou que deveria poder usar IA para qualquer finalidade “legal” e não ser restringido por um contratante privado.
O amicus brief em apoio à Anthropic apareceu em pauta poucas horas depois que o fabricante de Claude entrou com duas ações judiciais contra o DOD e outras agências federais. Com fio foi o primeiro a relatar a notícia.
No arquivamento judicialos funcionários do Google e da OpenAI afirmam que se o Pentágono “não estivesse mais satisfeito com os termos acordados do seu contrato com a Anthropic”, a agência poderia “simplesmente cancelar o contrato e adquirir os serviços de outra empresa líder em IA”.
O DOD, de fato, assinou um acordo com a OpenAI momentos depois de designar a Anthropic como um risco para a cadeia de suprimentos – uma medida que muitos dos funcionários do fabricante do ChatGPT protestaram.
“Se for permitido prosseguir, este esforço para punir uma das principais empresas de IA dos EUA terá, sem dúvida, consequências para a competitividade industrial e científica dos Estados Unidos no campo da inteligência artificial e não só”, diz o documento. “E isso irá esfriar a deliberação aberta em nosso campo sobre os riscos e benefícios dos sistemas de IA atuais.”
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
O documento também afirma que as linhas vermelhas declaradas pela Anthropic são preocupações legítimas que justificam grades de proteção fortes. Sem lei pública para reger a utilização da IA, argumenta, as restrições contratuais e técnicas que os desenvolvedores impõem aos seus sistemas são uma salvaguarda crítica contra a utilização indevida catastrófica.
Muitos dos funcionários que assinaram a declaração também cartas abertas assinadas nas últimas semanas, instando o DOD a retirar o rótulo e convocando os líderes de suas empresas a apoiarem a Antrópica e recusarem o uso unilateral de seus sistemas de IA.

