Anthropic proibiu temporariamente o criador do OpenClaw de acessar Claude

Anthropic proibiu temporariamente o criador do OpenClaw de acessar Claude

“Sim, pessoal, será mais difícil no futuro garantir que o OpenClaw ainda funcione com modelos antrópicos”, disse o criador do OpenClaw, Peter Steinberger. postado em X na manhã de sexta-feirajunto com a foto de uma mensagem da Anthropic dizendo que sua conta foi suspensa por atividades “suspeitas”.

A proibição não durou muito. Poucas horas depois, depois que a postagem se tornou viral, Steinberger disse que sua conta havia sido restabelecida. Entre centenas de comentários – muitos deles em terreno de teoria da conspiração, visto que Steinberger é agora empregado pelo rival antrópico OpenAI – foi feito por um engenheiro antrópico. O engenheiro disse ao famoso desenvolvedor que a Anthropic nunca baniu ninguém por usar o OpenClaw e se ofereceu para ajudar.

Não está claro se essa foi a chave que restaurou a conta. (Perguntamos à Anthropic sobre isso.) Mas toda a sequência de mensagens foi esclarecedora em muitos níveis.

Para recapitular a história recente: esta proibição seguiu-se à notícia da semana passada de que as assinaturas do Claude da Anthropic não cobririam mais “Arreios de terceiros, incluindo OpenClaw”, disse a empresa de modelos de IA.

Os usuários do OpenClaw agora precisam pagar por esse uso separadamente, com base no consumo, por meio da API de Claude. Em essência, a Anthropic, que oferece seu próprio agente Cowork, agora cobra um “imposto de garra”. Steinberger disse que estava seguindo essa nova regra e usando sua API, mas foi banido mesmo assim.

A Anthropic disse que instituiu a mudança de preços porque as assinaturas não foram criadas para lidar com os “padrões de uso” das garras. As garras podem ser mais intensivo em computação do que prompts ou scripts simples, porque eles podem executar loops de raciocínio contínuos, repetir ou repetir tarefas automaticamente e vincular-se a muitas outras ferramentas de terceiros.

Steinberger, no entanto, não acreditou nessa desculpa. Depois que a Anthropic mudou o preço, ele postou“Engraçado como os tempos coincidem, primeiro eles copiam alguns recursos populares em seu equipamento fechado e, em seguida, bloqueiam o código aberto.” Embora ele não tenha especificado ele pode estar se referindo aos recursos adicionados ao agente de Claude Cowork como Claude Dispatch que permite aos usuários controlar remotamente agentes e atribuir tarefas. O Dispatch foi lançado algumas semanas antes da Anthropic mudar sua política de preços do OpenClaw.

A frustração de Steinberger com a Anthropic ficou novamente exposta na sexta-feira.

Uma pessoa deu a entender que parte disso é culpa dele, por aceitar um emprego na OpenAI em vez da Anthropic, postando “Você teve a escolha, mas escolheu a errada”. Ao que Steinberger respondeu: “Um me acolheu, outro enviou ameaças legais”.

Ai.

Quando várias pessoas perguntaram por que ele está usando o Claude em vez dos modelos de seu empregador, ele explicou que o usa apenas para testes, para garantir que as atualizações do OpenClaw não prejudiquem os usuários do Claude.

Ele explicou: “Você precisa separar duas coisas. Meu trabalho na OpenClaw Foundation, onde queremos fazer o OpenClaw funcionar muito bem para *qualquer* fornecedor de modelo, e meu trabalho na OpenAI para ajudá-los com futuras estratégias de produtos.”

Várias pessoas também apontaram que a necessidade de testar Claude ocorre porque esse modelo continua sendo uma escolha popular para usuários do OpenClaw em vez do ChatGPT. Ele também ouviu isso quando a Anthropic mudou seus preços, ao que respondeu: “Trabalhando nisso”. (Então, essa é uma pista sobre o que envolve seu trabalho na OpenAI.)

Steinberger não respondeu a um pedido de comentário.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *