Para desenvolvedores que usam IA, a “codificação vibratória” agora se resume a cuidar de cada ação ou arriscar deixar o modelo funcionar sem controle. Antrópico diz sua última atualização para Claude visa eliminar essa escolha, permitindo que a IA decida quais ações são seguras para serem tomadas por conta própria – com alguns limites.
A mudança reflete uma mudança mais ampla em toda a indústria, à medida que as ferramentas de IA são cada vez mais concebidas para agir sem esperar pela aprovação humana. O desafio é equilibrar velocidade e controle: muitas proteções retardam as coisas, enquanto poucas podem tornar os sistemas arriscados e imprevisíveis. O novo “modo automático” da Anthropic, agora em pré-visualização de pesquisa – o que significa que está disponível para teste, mas ainda não é um produto acabado – é sua mais recente tentativa de enfiar a linha na agulha.
O modo automático usa proteções de IA para revisar cada ação antes de sua execução, verificando comportamentos de risco que o usuário não solicitou e sinais de injeção imediata – um tipo de ataque em que instruções maliciosas ficam ocultas no conteúdo que a IA está processando, fazendo com que ela execute ações não intencionais. Quaisquer ações seguras ocorrerão automaticamente, enquanto as arriscadas serão bloqueadas.
É essencialmente uma extensão do comando existente de “pular permissões perigosamente” de Claude Code, que entrega toda a tomada de decisões à IA, mas com uma camada de segurança adicionada no topo.
O recurso se baseia em uma onda de ferramentas de codificação autônomas de empresas como GitHub e OpenAI, que podem executar tarefas em nome de um desenvolvedor. Mas vai um passo além, transferindo a decisão de quando pedir permissão do usuário para a própria IA.
A Anthropic não detalhou os critérios específicos que sua camada de segurança usa para distinguir ações seguras de ações arriscadas – algo que os desenvolvedores provavelmente desejarão entender melhor antes de adotar o recurso amplamente. (O TechCrunch entrou em contato com a empresa para obter mais informações sobre esse assunto.)
O modo automático surge após o lançamento do Anthropic Revisão do Código Claudeseu revisor automático de código projetado para detectar bugs antes que eles atinjam a base de código e Despacho para Coworkque permite aos usuários enviar tarefas a agentes de IA para realizar o trabalho em seu nome.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
O modo automático será implementado para usuários corporativos e API nos próximos dias. A empresa afirma que atualmente funciona apenas com Claude Sonnet 4.6 e Opus 4.6 e recomenda o uso do novo recurso em “ambientes isolados” – configurações em sandbox que são mantidas separadas dos sistemas de produção, limitando os danos potenciais se algo der errado.

