Aerial view of The Pentagon

A Anthropic e o Pentágono estão supostamente discutindo sobre o uso de Claude

O Pentágono está pressionando as empresas de IA a permitirem que os militares dos EUA usem sua tecnologia para “todos os fins legais”, mas a Anthropic está recuando, de acordo com um novo relatório no Axios.

O governo está supostamente fazendo a mesma exigência para OpenAI, Google e xAI. Um funcionário anônimo do governo Trump disse à Axios que uma dessas empresas concordou, enquanto as outras duas supostamente mostraram alguma flexibilidade.

Enquanto isso, o antrópico tem sido o mais resistente. Em resposta, o Pentágono está aparentemente a ameaçar cancelar o seu contrato de 200 milhões de dólares com a empresa de IA.

Em janeiro, o Wall Street Journal informou que houve um desacordo significativo entre funcionários do Departamento Antrópico e de Defesa sobre como seus modelos Claude poderiam ser usados. O WSJ posteriormente disse que Claude foi usado na operação militar dos EUA para capturar o então presidente venezuelano Nicolás Maduro.

A Anthropic não respondeu imediatamente ao pedido de comentários do TechCrunch.

Um porta-voz da empresa disse à Axios que a empresa “não discutiu o uso de Claude para operações específicas com o Departamento de Guerra”, mas está “focada em um conjunto específico de questões de política de uso – ou seja, nossos limites rígidos em torno de armas totalmente autônomas e vigilância doméstica em massa”.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *