O Google DeepMind na quarta -feira publicou um papel exaustivo Em sua abordagem de segurança à AGI, definida aproximadamente como IA que pode realizar qualquer tarefa que um humano possa.
AGI é um pouco controverso no campo da IA, com Ossyers sugerindo que é pouco mais que um sonho. Outros, incluindo Principais laboratórios de IA como antropiaavise que está ao virar da esquina e pode resultar em danos catastróficos se as medidas não forem tomadas para implementar salvaguardas apropriadas.
O documento de 145 páginas da DeepMind, co-autor do co-fundador da DeepMind, Shane Legg, prevê que a AGI poderia chegar até 2030 e que isso pode resultar no que os autores chamam de “danos graves”. O artigo não define concretamente isso, mas dá o exemplo alarmista de “riscos existenciais” que “destroem permanentemente a humanidade”.
“(Prevemos) o desenvolvimento de uma AGI excepcional antes do final da década atual”, escreveram os autores. “Uma AGI excepcional é um sistema que possui uma capacidade correspondente a pelo menos 99º percentil de adultos qualificados em uma ampla gama de tarefas não físicas, incluindo tarefas metacognitivas, como aprender novas habilidades”.
Fora do bastão, o artigo contrasta o tratamento da AGI de Mitigação de Riscos de Deepmind com os Anthrópicos e Openai. Antrópico, diz, coloca menos ênfase em “treinamento, monitoramento e segurança robustos”, enquanto o OpenAI é excessivamente otimista em “automatizar” uma forma de pesquisa de segurança de IA conhecida como pesquisa de alinhamento.
O artigo também lança dúvidas sobre a viabilidade da IA superinteligente – ai que pode realizar trabalhos melhor do que qualquer humano. (Openai reivindicado recentemente que está mudando seu objetivo da AGI para a Superintelligência.) Ausente “inovação arquitetônica significativa”, os autores de DeepMind não estão convencidos de que os sistemas superinteligentes surgirão em breve – se é que alguma vez.
O artigo acha que é plausível que os paradigmas atuais permitirão a “melhoria recursiva da IA”: um ciclo de feedback positivo onde a IA conduz sua própria pesquisa de IA para criar sistemas de IA mais sofisticados. E isso pode ser incrivelmente perigoso, afirmam os autores.
Em alto nível, o artigo propõe e defende o desenvolvimento de técnicas para bloquear o acesso dos maus atores à AGI hipotética, melhorar a compreensão das ações dos sistemas de IA e “endurecer” os ambientes em que a IA pode agir. Reconhece que muitas das técnicas são nascentes e têm “problemas de pesquisa aberta”, mas advertem a ignorar os desafios de segurança possivelmente no horizonte.
“A natureza transformadora da AGI tem o potencial de benefícios incríveis e danos graves”, escrevem os autores. “Como resultado, para construir a AGI com responsabilidade, é fundamental que os desenvolvedores de IA da Frontier planejem proativamente mitigar graves danos”.
Alguns especialistas discordam das premissas do jornal, no entanto.
Heidy Khlaaf, cientista-chefe da IA do Instituto de AI agora sem fins lucrativos, disse ao TechCrunch que ela acha que o conceito de AGI é mal definido para ser “rigorosamente avaliado cientificamente”. Outro pesquisador de IA, Matthew Guzdial, professor assistente da Universidade de Alberta, disse que não acredita que a melhoria recursiva da IA seja realista no momento.
“(Melhoria recursiva) é a base para os argumentos de singularidade de inteligência”, disse Guzdial ao TechCrunch, “mas nunca vimos nenhuma evidência para funcionar”.
Sandra Wachter, pesquisadora que estuda tecnologia e regulamentação em Oxford, argumenta que uma preocupação mais realista é a IA que se reforça com “saídas imprecisas”.
“Com a proliferação de saídas generativas de IA na Internet e a substituição gradual de dados autênticos, os modelos agora estão aprendendo com seus próprios saídas que estão cheias de maltutos ou alucinações”, disse ela à TechCrunch. “Neste ponto, os chatbots são usados predominantemente para fins de busca e descoberta da verdade. Isso significa que estamos constantemente correndo o risco de ser alimentados com maltaduras e acreditando neles porque são apresentados de maneiras muito convincentes”.
Por mais abrangente que seja, o artigo de DeepMind parece improvável que resolva os debates sobre o quão realista a AGI é – e as áreas de segurança da IA na necessidade mais urgente de atenção.