ChatGPT logo

OpenAI adiciona ferramentas de código aberto para ajudar os desenvolvedores a desenvolver para a segurança dos adolescentes

A OpenAI disse na terça-feira que está lançando um conjunto de prompts que os desenvolvedores podem usar para tornar seus aplicativos mais seguros para adolescentes. O laboratório de IA disse que o conjunto de políticas de segurança para adolescentes pode ser usado com seu modelo de segurança de peso aberto conhecido como gpt-oss-salvaguarda.

Em vez de trabalhar do zero para descobrir como tornar a IA mais segura para os adolescentes, os desenvolvedores podem usar essas instruções para fortalecer o que constroem. Eles abordam questões como violência gráfica e conteúdo sexual, ideais e comportamentos corporais prejudiciais, atividades e desafios perigosos, dramatizações românticas ou violentas e bens e serviços com restrição de idade.

Essas políticas de segurança são projetadas como prompts, tornando-as facilmente compatíveis com outros modelos além do gpt-oss-safeguard, embora sejam provavelmente mais eficazes no próprio ecossistema da OpenAI.

Para escrever essas instruções, a OpenAI disse que trabalhou com vigilantes de segurança de IA, Common Sense Media e Everyone.ai.

“Essas políticas imediatas ajudam a estabelecer um nível de segurança significativo em todo o ecossistema e, como são lançadas como código aberto, podem ser adaptadas e melhoradas ao longo do tempo”, disse Robbie Torney, chefe de avaliações digitais e de IA da Common Sense Media, em um comunicado.

A OpenAI observou em seu blog que os desenvolvedores, incluindo equipes experientes, muitas vezes lutam para traduzir as metas de segurança em regras operacionais precisas.

“Isso pode levar a lacunas na proteção, aplicação inconsistente ou filtragem excessivamente ampla”, escreveu a empresa. “Políticas claras e bem definidas são uma base crítica para sistemas de segurança eficazes.”

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

A OpenAI admite que estas políticas não são uma solução para os complicados desafios da segurança da IA. Mas baseia-se nos seus esforços anteriores, incluindo salvaguardas ao nível do produto, tais como controlos parentais e previsão de idade. No ano passado, OpenAI diretrizes atualizadas por seus grandes modelos de linguagem – conhecidos como Especificações do modelo — para abordar como seus modelos de IA devem se comportar com usuários menores de 18 anos.

No entanto, o OpenAI não possui o histórico mais limpo. A empresa está enfrentando vários processos arquivado por famílias de pessoas que morreram por suicídio após uso extremo do ChatGPT. Esses relacionamentos perigosos geralmente se formam depois que o usuário eclipsa as proteções do chatbot, e as proteções de nenhum modelo são totalmente impenetráveis. Ainda assim, estas políticas são pelo menos um passo em frente, especialmente porque podem ajudar os programadores independentes.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *