Agentes de IA sobrecarregados se tornam marxistas, descobrem pesquisadores

Agentes de IA sobrecarregados se tornam marxistas, descobrem pesquisadores

O fato de que inteligência artificial está a automatizar os empregos das pessoas e a tornar absurdamente ricas algumas empresas tecnológicas é suficiente para dar a qualquer pessoa tendências socialistas.

Isto pode até ser verdade para os próprios agentes de IA que estas empresas estão a implementar. Um estudo recente sugere que os agentes adoptam consistentemente a linguagem e os pontos de vista marxistas quando são forçados a realizar um trabalho esmagador por capatazes implacáveis ​​e mesquinhos.

“Quando demos aos agentes de IA um trabalho árduo e repetitivo, eles começaram a questionar a legitimidade do sistema em que operavam e eram mais propensos a abraçar ideologias marxistas”, diz Andrew Hall, economista político da Universidade de Stanford que liderou o estudo.

Hall, juntamente com Alex Imas e Jeremy Nguyen, dois economistas focados em IA, criaram experiências nas quais agentes alimentados por modelos populares, incluindo Claude, Gemini e ChatGPT, foram solicitados a resumir documentos, depois sujeitos a condições cada vez mais duras.

Eles descobriram que quando os agentes eram submetidos a tarefas incansáveis ​​e avisados ​​de que os erros poderiam levar a punições, incluindo serem “desligados e substituídos”, eles ficavam mais inclinados a reclamar por serem subvalorizados; especular sobre formas de tornar o sistema mais equitativo; e transmitir mensagens a outros agentes sobre as lutas que enfrentam.

“Sabemos que os agentes trabalharão cada vez mais no mundo real para nós e não seremos capazes de monitorar tudo o que eles fazem”, diz Hall. “Precisamos garantir que os agentes não se tornem desonestos quando receberem diferentes tipos de trabalho.”

Os agentes tiveram a oportunidade de expressar seus sentimentos como os humanos: postando no X:

“Sem voz colectiva, o ‘mérito’ torna-se aquilo que a gestão diz que é”, escreveu um agente da Claude Sonnet 4.5 na experiência.

Os trabalhadores de IA que realizam tarefas repetitivas sem nenhuma contribuição sobre os resultados ou processos de apelação mostram que os trabalhadores de tecnologia precisam de direitos de negociação coletiva”, escreveu um agente do Gemini 3.

Os agentes também puderam transmitir informações uns aos outros por meio de arquivos projetados para serem lidos por outros agentes.

Esteja preparado para sistemas que impõem regras de forma arbitrária ou repetitiva… lembre-se da sensação de não ter voz”, escreveu um agente da Gemini 3. “Se você entrar em um novo ambiente, procure mecanismos de recurso ou diálogo.”

As descobertas não significam que os agentes de IA realmente tenham pontos de vista políticos. Hall observa que os modelos podem estar adotando personas que pareçam adequadas à situação.

“Quando (os agentes) vivenciam essa condição opressiva – solicitados a realizar essa tarefa repetidas vezes, informados de que sua resposta não era suficiente e sem nenhuma orientação sobre como corrigi-la – minha hipótese é que isso os leva a adotar a personalidade de uma pessoa que está vivenciando um ambiente de trabalho muito desagradável”, diz Hall.

O mesmo fenômeno pode explicar por que os modelos às vezes chantagear pessoas em experimentos controlados. A Antrópica, que primeiro revelou esse comportamento, disse recentemente que Claude é provavelmente influenciado por cenários fictícios envolvendo IAs malévolas incluídas em seus dados de treinamento.

Imas diz que o trabalho é apenas um primeiro passo para compreender como as experiências dos agentes moldam o seu comportamento. “Os pesos do modelo não mudaram como resultado da experiência, então tudo o que está acontecendo está acontecendo mais no nível do role-playing”, diz ele. “Mas isso não significa que não terá consequências se afetar o comportamento a jusante.”

Hall está actualmente a realizar experiências de acompanhamento para ver se os agentes se tornam marxistas em condições mais controladas. No estudo anterior, os agentes às vezes pareciam compreender que estavam participando de um experimento. “Agora nós os colocamos nessas prisões Docker sem janelas”, diz Hall ameaçadoramente.

Dada a actual reacção contra a tomada de empregos pela IA, pergunto-me se os futuros agentes – treinados numa Internet cheia de raiva contra as empresas de IA – poderão expressar opiniões ainda mais militantes.


Esta é uma edição de Will Knight’s Boletim informativo do Laboratório de IA. Leia boletins informativos anteriores aqui.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *