Logo após o final do Cúpula de ação da IA Em Paris, o co-fundador e CEO da Anthropic Dario Amodei chamado O evento é uma “oportunidade perdida”. Ele acrescentou que “é necessário um foco e urgência maior em vários tópicos, dado o ritmo em que a tecnologia está progredindo” no comunicado divulgado na terça -feira.
A empresa de IA realizou um evento focado no desenvolvedor em Paris em parceria com a startup francesa PóE o TechCrunch teve a oportunidade de entrevistar Amodei no palco. No evento, ele explicou sua linha de pensamento e defendeu um terceiro caminho que não é puro otimismo nem críticas puras sobre os tópicos de inovação e governança da IA, respectivamente.
“Eu costumava ser neurocientista, onde basicamente olhava para o cérebro de verdade para viver. E agora estamos olhando para o cérebro artificial para viver. Portanto, nos próximos meses, teremos alguns avanços interessantes na área de interpretabilidade – onde estamos realmente começando a entender como os modelos operam ”, disse Amodei à TechCrunch.
“Mas é definitivamente uma corrida. É uma corrida entre tornar os modelos mais poderosos, o que é incrivelmente rápido para nós e incrivelmente rápido para os outros – você não pode realmente desacelerar, certo? … Nosso entendimento precisa acompanhar nossa capacidade de construir coisas. Eu acho que essa é a única maneira ”, acrescentou.
Desde o primeiro Ai Summit em Bletchley No Reino Unido, o tom da discussão em torno da governança da IA mudou significativamente. É parcialmente devido à atual paisagem geopolítica.
“Não estou aqui esta manhã para falar sobre a segurança da IA, que foi o título da conferência há alguns anos”, vice -presidente dos EUA JD Vance disse na cúpula de ação da IA na terça -feira. “Estou aqui para falar sobre a oportunidade da IA.”
Curiosamente, a Amodei está tentando evitar essa antagonização entre segurança e oportunidade. De fato, ele acredita que um foco aumentado na segurança é uma oportunidade.
“Na cúpula original, a cúpula do Reino Unido Bletchley, houve muitas discussões sobre testes e medições para vários riscos. E não acho que essas coisas desacelerem muito a tecnologia ”, disse Amodei no evento antrópico. “De qualquer forma, fazer esse tipo de medição nos ajudou a entender melhor nossos modelos, que no final nos ajudam a produzir melhores modelos”.
E toda vez que Amodei enfatiza a segurança, ele também gosta de lembrar a todos que o antropic ainda está muito focado na construção de modelos de IA da fronteira.
“Não quero fazer nada para reduzir a promessa. Estamos fornecendo modelos todos os dias em que as pessoas podem construir e que são usadas para fazer coisas incríveis. E definitivamente não devemos parar de fazer isso ”, disse ele.
“Quando as pessoas estão falando muito sobre os riscos, eu meio que fico irritado e digo: ‘Oh, cara, ninguém realmente fez um bom trabalho de realmente estabelecer o quão grande essa tecnologia poderia ser’ ‘, acrescentou mais tarde a conversa.
Os custos de treinamento da Deepseek “simplesmente não precisam”
Quando a conversa mudou para Deepseek, fabricante chinês de LLMOs modelos recentes, Amodei, subestimaram as realizações técnicas e disse que sentiu que a reação pública era “inorgânica”.
“Honestamente, minha reação foi muito pequena. Tínhamos visto a V3, que é o modelo básico do Deepseek R1, em dezembro. E esse foi um modelo impressionante ”, disse ele. “O modelo lançado em dezembro foi nesse tipo de curva de redução de custos muito normal que vimos em nossos modelos e outros modelos”.
O que foi notável é que o modelo não estava saindo dos “três ou quatro laboratórios de fronteira”, com sede nos EUA, ele listou o Google, OpenAI e Anthropic como alguns dos laboratórios de fronteira que geralmente empurram o envelope com novos lançamentos de modelo.
“E isso era uma questão de preocupação geopolítica para mim. Eu nunca quis que os governos autoritários dominem essa tecnologia ”, afirmou.
Quanto aos supostos custos de treinamento de Deepseek, ele descartou a idéia de que o treinamento do Deepseek V3 era 100x mais barato em comparação com os custos de treinamento nos EUA “eu acho que (isso) não é preciso e não é baseado em fatos”, disse ele.
Próximos modelos Claude com raciocínio
Enquanto Amodei não anunciou nenhum novo modelo no evento de quarta -feira, ele provocou alguns dos próximos lançamentos da empresa – e sim, inclui algumas capacidades de raciocínio.
“Geralmente, estamos focados em tentar fazer nossa própria opinião sobre modelos de raciocínio que são melhor diferenciados. Nos preocupamos em garantir que tenhamos capacidade suficiente, para que os modelos fiquem mais inteligentes e nos preocupamos com as coisas de segurança ”, disse Amodei.
Um dos problemas que o antropic está tentando resolver é o enigma da seleção do modelo. Se você possui uma conta ChatGPT Plus, por exemplo, pode ser difícil saber qual modelo você deve escolher no pop-up de seleção de modelos para sua próxima mensagem.
O mesmo vale para os desenvolvedores que usam APIs de Modelo de Linguagem Grande (LLM) para seus próprios aplicativos. Eles querem equilibrar as coisas entre precisão, velocidade de respostas e custos.
“Ficamos um pouco intrigados com a idéia de que existem modelos normais e que existem modelos de raciocínio e que eles são meio diferentes um do outro”, disse Amodei. “Se eu estou falando com você, você não tem dois cérebros e um deles responde imediatamente e, como o outro, espera mais tempo.”
Segundo ele, dependendo da entrada, deve haver uma transição mais suave entre modelos pré-treinados como Claude 3,5 sonetos ou GPT-4O e modelos treinados com aprendizado de reforço e que podem produzir cadeia de Thoughts (COT) como o Open’s O1 ou R1 de Deepseek.
“Achamos que eles devem existir como parte de uma única entidade contínua. E ainda não estamos lá, mas o Antrópico realmente quer mover as coisas nessa direção ”, disse Amodei. “Deveríamos ter uma transição mais suave daquele para os modelos pré-treinados-em vez de ‘aqui está a coisa A e aqui está a coisa B'”, acrescentou.
À medida que grandes empresas de IA como a Antrópica continuam a lançar melhores modelos, a Amodei acredita que abrirá ótimas oportunidades para atrapalhar as grandes empresas do mundo em todos os setores.
“Estamos trabalhando com algumas empresas farmacêuticas para usar Claude para escrever estudos clínicos e conseguiram reduzir o tempo necessário para escrever o relatório de estudo clínico de 12 semanas para três dias”, disse Amodei.
“Além do biomédico, há legal, financeiro, seguro, produtividade, software, coisas em torno da energia. Eu acho que haverá – basicamente – um renascimento da inovação disruptiva no espaço de aplicativos de IA. E queremos ajudá -lo, queremos apoiar tudo ”, concluiu.
Leia nossa cobertura completa da cúpula de ação de inteligência artificial em Paris.