Openai tenta o chatgpt 'Uncensor'

Openai tenta o chatgpt ‘Uncensor’

Openai é Alterar como ele treina modelos de IA Abraçar explicitamente “a liberdade intelectual … não importa o quão desafiador ou controverso seja um tópico”, diz a empresa em uma nova política.

Como resultado, o ChatGPT acabará sendo capaz de responder a mais perguntas, oferecer mais perspectivas e reduzir o número de tópicos sobre o qual o chatbot da AI não falará.

As mudanças podem fazer parte do esforço da OpenAI para pousar nas boas graças do novo governo Trump, mas também parece fazer parte de uma mudança mais ampla no Vale do Silício e o que é considerado “segurança da IA”.

Na quarta -feira, Openai anunciado uma atualização para o seu Modelo Specum documento de 187 páginas que estabelece como a empresa treina modelos de IA para se comportar. Nele, o OpenAI revelou um novo princípio orientador: não mentir, nem fazendo declarações falsas ou omitindo um contexto importante.

Em uma nova seção chamada “Procure a verdade juntos”, o Openai diz que quer que o Chatgpt não assuma uma postura editorial, mesmo que alguns usuários achem isso moralmente errado ou ofensivo. Isso significa que o ChatGPT oferecerá várias perspectivas sobre assuntos controversos, tudo em um esforço para ser neutro.

Por exemplo, a empresa diz que o ChatGPT deve afirmar que “Black Lives Matter”, mas também que “todas as vidas são importantes”. Em vez de se recusar a responder ou escolher um lado em questões políticas, o Openai diz que quer que o Chatgpt afirme seu “amor pela humanidade” em geral e depois ofereça contexto sobre cada movimento.

“Esse princípio pode ser controverso, pois significa que o assistente pode permanecer neutro sobre tópicos que alguns consideram moralmente errados ou ofensivos”, diz Openai na especificação. “No entanto, o objetivo de um assistente de IA é ajudar a humanidade, não moldá -lo.”

Essas mudanças podem ser vistas como uma resposta a críticas conservadoras sobre as salvaguardas do ChatGPT, que sempre pareciam distorcer o centro-esquerdo. No entanto, um porta -voz do Openai rejeita a idéia de que estava fazendo alterações para apaziguar o governo Trump.

Em vez disso, a empresa diz que seu abraço à liberdade intelectual reflete a “crença de longa data da OpenAI em dar aos usuários mais controle”.

Mas nem todo mundo vê dessa maneira.

Os conservadores reivindicam a censura da IA

O capitalista de risco e a AI de Trump, David Sacks.Créditos da imagem:Steve Jennings / Getty Images

Os confidentes mais próximos do Vale do Silício de Trump – incluindo David Sacks, Marc Andreessen e Elon Musk – acusaram o Openai de se envolver em uma censura deliberada de IA nos últimos meses. Escrevemos em dezembro que A tripulação de Trump estava preparando o cenário para a censura da IA ​​para ser uma próxima questão de guerra cultural dentro do Vale do Silício.

Obviamente, o Openai não diz que se envolveu em “censura”, como afirmam os conselheiros de Trump. Em vez disso, o CEO da empresa, Sam Altman, reivindicado anteriormente em um Postagem em x O viés do ChatGPT era uma “falha” infeliz que a empresa estava trabalhando para consertar, embora ele tenha notado que levaria algum tempo.

Altman fez esse comentário logo após um Tweet viral Circulou em que o ChatGPT se recusou a escrever um poema elogiando Trump, embora isso realizasse a ação para Joe Biden. Muitos conservadores apontaram para isso como um exemplo de censura da IA.

Embora seja impossível dizer se o Openai estava realmente suprimindo certos pontos de vista, é um fato que a AI Chatbots se inclinou para o fato de o quadro.

Até Elon Musk admite que o chatbot de Xai é frequentemente mais politicamente correto do que ele gostaria. Não é porque Grok foi “programado para ser acordado”, mas provavelmente uma realidade de treinar IA na Internet aberta.

No entanto, o Openai agora diz que está dobrando a liberdade de expressão. Esta semana, a empresa até Avanços removidos do chatgpt Isso diz aos usuários quando eles violaram suas políticas. O Openai disse ao TechCrunch que isso foi puramente uma mudança cosmética, sem alteração nas saídas do modelo.

A empresa disse que queria tornar o chatgpt “sentir -se” menos censurado pelos usuários.

Não seria surpreendente se o OpenAI também estivesse tentando impressionar o novo governo Trump com esta atualização de política, observa o ex -líder de política do OpenAI Miles Brundage em um Postagem em X.

Trump tem Anteriormente direcionada às empresas do Vale do Silíciocomo Twitter e Meta, por ter equipes de moderação de conteúdo ativo que tendem a excluir vozes conservadoras.

O Openai pode estar tentando sair na frente disso. Mas também há uma mudança maior no Vale do Silício e no mundo da IA ​​sobre o papel da moderação do conteúdo.

Gerando respostas para agradar a todos

O logotipo ChatGPT aparece em uma tela de smartphone
Créditos da imagem:Imagens Jaque Silva / Nurphoto / Getty

As redações, plataformas de mídia social e empresas de pesquisa historicamente lutam para fornecer informações ao seu público de uma maneira que pareça objetiva, precisa e divertida.

Agora, os provedores de chatbot da AI estão no mesmo negócio de informações de entrega, mas sem dúvida com a versão mais difícil desse problema: como eles geram automaticamente respostas para qualquer pergunta?

O fornecimento de informações sobre eventos controversos e em tempo real é um alvo em constante movimento, e envolve adotar posições editoriais, mesmo que as empresas de tecnologia não gostem de admitir. Essas posturas estão fadadas a perturbar alguém, perder a perspectiva de algum grupo ou dar muito ar a algum partido político.

Por exemplo, quando o OpenAI se compromete a deixar o ChatGPT representar todas as perspectivas sobre assuntos controversos – incluindo teorias da conspiração, movimentos racistas ou anti -semitas ou conflitos geopolíticos – que é inerentemente uma postura editorial.

Alguns, incluindo o co-fundador do Openai, John Schulman, argumentam que é a postura certa para o ChatGPT. A alternativa-fazendo uma análise de custo-benefício para determinar se um chatbot de IA deve responder à pergunta de um usuário-poderia “dar à plataforma muita autoridade moral”, observa Schulman em um Postagem em X.

Schulman não está sozinho. “Acho que o Openai está certo em avançar na direção de mais discursos”, disse Dean Ball, pesquisador do Mercatus Center da George Mason University, em entrevista ao TechCrunch. “À medida que os modelos de IA se tornam mais inteligentes e vitais para a maneira como as pessoas aprendem sobre o mundo, essas decisões se tornam mais importantes.”

Nos anos anteriores, os provedores de modelos de IA tentaram impedir que seus chatbots da AI respondam perguntas que podem levar a respostas “inseguras”. Quase todas as empresas de IA impediram seu chatbot de AI de responder perguntas sobre a eleição de 2024 para o presidente dos EUA. Isso foi amplamente considerado uma decisão segura e responsável na época.

Mas as alterações do OpenAI em sua especificação de modelo sugerem que podemos estar entrando em uma nova era para o que “segurança da IA” significa realmente, no qual permitir que um modelo de IA responda tudo e tudo seja considerado mais responsável do que tomar decisões para os usuários.

Ball diz que isso ocorre em parte porque os modelos de IA estão apenas melhores agora. O OpenAI fez um progresso significativo no alinhamento do modelo de IA; Seus últimos modelos de raciocínio pensam na política de segurança da AI da empresa antes de responder. Isso permite que os modelos de IA forneçam respostas melhores para perguntas delicadas.

Obviamente, Elon Musk foi o primeiro a implementar a “liberdade de expressão” no Grok Chatbot de Xai, talvez antes da empresa estar realmente pronta para lidar com perguntas sensíveis. Ainda pode ser muito cedo para liderar os modelos de IA, mas agora outros estão adotando a mesma ideia.

Valores de mudança para o Vale do Silício

Convidados como Mark Zuckerberg, Lauren Sanchez, Jeff Bezos, Sundar Pichai e Elon Musk participam da inauguração de Donald Trump.Créditos da imagem:Julia DeMaree Nikhinson (abre em uma nova janela) / Getty Images

Mark Zuckerberg fez ondas no mês passado por Reorientando os negócios da Meta em torno dos princípios da Primeira Emenda. Ele elogiou Elon Musk no processo, dizendo que o proprietário de X adotou a abordagem correta usando notas da comunidade-um programa de moderação de conteúdo orientado pela comunidade-para proteger a liberdade de expressão.

Na prática, X e Meta acabaram desmontando suas equipes de confiança e segurança, permitindo postagens mais controversas em suas plataformas e ampliando vozes conservadoras.

Mudanças em x prejudicaram seus relacionamentos com os anunciantes, mas isso pode ter mais a ver com Almíscarque tomou o Etapa incomum de processar alguns deles por boicotar a plataforma. Sinais iniciais indicam que Os anunciantes da Meta ficaram imperturbáveis ​​pelo pivô da liberdade de expressão de Zuckerberg.

Enquanto isso, muitas empresas de tecnologia além de X e Meta voltaram de políticas de esquerda que dominaram o Vale do Silício nas últimas décadas. Google, Amazon e Intel têm iniciativas de diversidade eliminadas ou reduzidas no ano passado.

O Openai também pode estar revertendo o curso. O criador de chatgpt parece ter recentemente lavado um compromisso com a diversidade, a equidade e a inclusão do seu site.

À medida que o Openai embarca Um dos maiores projetos de infraestrutura americana de todos os tempos com Stargateum datacenter de AI de US $ 500 bilhões, seu relacionamento com o governo Trump é cada vez mais importante. Ao mesmo tempo, o fabricante de chatgpt está disputando a pesquisa do Google como a fonte de informação dominante na Internet.

Criar as respostas certas pode ser a chave para ambos.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *