ChatGPT logo

OpenAI apresenta nova proteção de ‘Contato Confiável’ para casos de possível automutilação

Na quinta-feira OpenAI anunciado um novo recurso chamado Contato Confiável, projetado para alertar terceiros de confiança se ideias de automutilação forem expressas em uma conversa. O recurso permite que um usuário adulto do ChatGPT designe outra pessoa como contato confiável em sua conta, como um amigo ou familiar. Nos casos em que uma conversa pode resultar em automutilação, a OpenAI agora incentivará o usuário a entrar em contato com esse contato. Também envia um alerta automático ao contato, incentivando-o a entrar em contato com o usuário.

OpenAI enfrentou uma onda de ações judiciais das famílias de pessoas que cometeram suicídio após conversar com seu chatbot. Em vários casos, as famílias dizem que ChatGPT encorajado seu ente querido se matar – ou mesmo ajudou-os a planejar.

Atualmente, a OpenAI usa uma combinação de automação e revisão humana para lidar com incidentes potencialmente prejudiciais. Certos gatilhos de conversa alertam o sistema da empresa sobre ideias suicidas, que então retransmitem as informações para uma equipe de segurança humana. A empresa afirma que sempre que recebe esse tipo de notificação, o incidente é analisado por um humano. “Nós nos esforçamos para revisar essas notificações de segurança em menos de uma hora”, afirma a empresa.

Se a equipe interna da OpenAI decidir que a situação representa um sério risco à segurança, o ChatGPT envia um alerta ao contato confiável – por e-mail, mensagem de texto ou notificação no aplicativo. O alerta foi elaborado para ser breve e incentivar o contato a entrar em contato com a pessoa em questão. Não inclui informações detalhadas sobre o que estava sendo discutido, como forma de proteger a privacidade do usuário, afirma a empresa.

Créditos da imagem:OpenAI

O recurso Contato Confiável segue as salvaguardas da empresa introduzido em setembro passado que deu aos pais o poder de supervisionar as contas de seus filhos adolescentes, incluindo a recepção de notificações de segurança projetado para alertar os pais se o sistema da OpenAI acreditar que seu filho está enfrentando um “sério risco de segurança”. Já há algum tempo, o ChatGPT também inclui alertas automatizados para busca de serviços profissionais de saúde, caso haja tendência de conversa sobre o tema automutilação.

Fundamentalmente, o Trust Contact é opcional e, mesmo que a proteção esteja ativada em uma conta específica, qualquer usuário pode ter várias contas ChatGPT. Os controles parentais da OpenAI também são opcionais, apresentando uma limitação semelhante.

“Trusted Contact faz parte do esforço mais amplo da OpenAI para construir sistemas de IA que ajudar as pessoas em momentos difíceis”, escreveu a empresa no post de anúncio. “Continuaremos a trabalhar com médicos, pesquisadores e legisladores para melhorar a forma como os sistemas de IA respondem quando as pessoas podem estar passando por dificuldades”.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *