Campbell Brown passou sua carreira buscando informações precisas, primeiro como renomada jornalista de TV e depois como a primeira e única chefe de notícias dedicada do Facebook. Agora, ao observar a IA remodelar a forma como as pessoas consomem informações, ela vê a história ameaçando se repetir. Desta vez, ela não está esperando que alguém conserte.
Sua empresa, IA do fórum – que ela discutiu recentemente com Tim Fernholz do TechCrunch em uma noite do StrictlyVC em São Francisco – avalia o desempenho dos modelos de fundação no que ela chama de “tópicos de alto risco” – geopolítica, saúde mental, finanças, contratação – assuntos onde “não há respostas claras de sim ou não, onde são obscuros, cheios de nuances e complexos”.
A ideia é encontrar os maiores especialistas do mundo, fazer com que eles criem benchmarks e depois treinar juízes de IA para avaliar modelos em escala. Para o trabalho geopolítico do Forum AI, Brown recrutou Niall Ferguson, Fareed Zakaria, o ex-secretário de Estado Tony Blinken, o ex-presidente da Câmara Kevin McCarthy e Anne Neuberger, que liderou a segurança cibernética na administração Obama. O objetivo é fazer com que os juízes de IA cheguem a um consenso de aproximadamente 90% com os especialistas humanos, um limite que ela diz que o Forum AI conseguiu alcançar.
Brown traça a origem do Forum AI, fundado há 17 meses em Nova York, até um momento específico. “Eu estava na Meta quando o ChatGPT foi lançado publicamente”, ela lembrou, “e me lembro logo depois de perceber que esse seria o funil através do qual todas as informações fluiriam. E isso não é muito bom”. As implicações para seus próprios filhos fizeram com que o momento parecesse quase existencial. “Meus filhos vão ficar muito burros se não descobrirmos como consertar isso”, ela se lembra de ter pensado.
O que mais a frustrava era que a precisão não parecia ser a prioridade de ninguém. As empresas modelo de fundação, disse ela, estão “extremamente focadas em codificação e matemática”, enquanto notícias e informações são mais difíceis. Mas mais difícil, argumentou ela, não significa opcional.
Na verdade, quando o Forum AI começou a avaliar os principais modelos, as conclusões não foram exatamente encorajadoras. Ela citou a retirada de Gemini dos sites do Partido Comunista Chinês “por histórias que não têm nada a ver com a China” e observou um preconceito político de tendência esquerdista em quase todos os modelos. Falhas mais sutis também abundam, disse ela, incluindo falta de contexto, falta de perspectivas, argumentos de palha sem reconhecimento. “Há um longo caminho a percorrer”, disse ela. “Mas também acho que existem algumas soluções muito fáceis que melhorariam enormemente os resultados.”
Brown passou anos no Facebook observando o que acontece quando uma plataforma é otimizada para algo errado. “Falhamos em muitas coisas que tentamos”, disse ela a Fernholz. O programa de verificação de fatos que ela criou não existe mais. A lição, mesmo que as redes sociais tenham feito vista grossa a isso, é que a otimização para o envolvimento tem sido péssima para a sociedade e deixou muitos menos informados.
Sua esperança é que a IA possa quebrar esse ciclo. “No momento, pode acontecer de qualquer maneira”, disse ela; as empresas poderiam dar aos usuários o que eles desejam ou poderiam “dar às pessoas o que é real, o que é honesto e o que é verdadeiro”. Ela reconheceu que a versão idealista disso – otimização da IA para a verdade – pode parecer ingênua. Mas ela acha que as empresas podem ser o aliado improvável aqui. As empresas que usam IA para decisões de crédito, empréstimos, seguros e contratações se preocupam com a responsabilidade e “vão querer que você otimize para acertar”.
Essa procura empresarial é também aquilo em que a Forum AI está a apostar nos seus negócios, embora transformar o interesse de conformidade em receitas consistentes continue a ser um desafio, especialmente tendo em conta que grande parte do mercado actual ainda está satisfeito com auditorias de caixa de verificação e benchmarks padronizados que Brown considera inadequados.
O cenário de conformidade, disse ela, é “uma piada”. Quando a cidade de Nova York aprovou a primeira lei sobre preconceito de contratação exigindo auditorias de IA, o controlador estadual descobriu que mais da metade tinha violações que não foram detectadas. A avaliação real, disse ela, requer experiência no domínio para trabalhar não apenas em cenários conhecidos, mas também em casos extremos que “podem causar problemas nos quais as pessoas não pensam”. E esse trabalho leva tempo. “Generalistas inteligentes não vão resolver isso.”
Brown – cuja empresa levantou no outono passado US$ 3 milhões liderado por Lerer Hippeau — está numa posição única para descrever a desconexão entre a autoimagem da indústria de IA e a realidade para a maioria dos usuários. “Você ouve dos líderes das grandes empresas de tecnologia: ‘Essa tecnologia vai mudar o mundo’, ‘vai tirar você do trabalho’, ‘vai curar o câncer'”, disse ela. “Mas para uma pessoa normal que usa apenas um chatbot para fazer perguntas básicas, ela ainda recebe muitas respostas erradas.”
A confiança na IA situa-se em níveis extraordinariamente baixos e ela pensa que o cepticismo é, em muitos casos, justificado. “A conversa está acontecendo no Vale do Silício em torno de uma coisa, e uma conversa totalmente diferente está acontecendo entre os consumidores.”
Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.

