A OpenAI disse na terça-feira que está lançando um conjunto de prompts que os desenvolvedores podem usar para tornar seus aplicativos mais seguros para adolescentes. O laboratório de IA disse que o conjunto de políticas de segurança para adolescentes pode ser usado com seu modelo de segurança de peso aberto conhecido como gpt-oss-salvaguarda.
Em vez de trabalhar do zero para descobrir como tornar a IA mais segura para os adolescentes, os desenvolvedores podem usar essas instruções para fortalecer o que constroem. Eles abordam questões como violência gráfica e conteúdo sexual, ideais e comportamentos corporais prejudiciais, atividades e desafios perigosos, dramatizações românticas ou violentas e bens e serviços com restrição de idade.
Essas políticas de segurança são projetadas como prompts, tornando-as facilmente compatíveis com outros modelos além do gpt-oss-safeguard, embora sejam provavelmente mais eficazes no próprio ecossistema da OpenAI.
Para escrever essas instruções, a OpenAI disse que trabalhou com vigilantes de segurança de IA, Common Sense Media e Everyone.ai.
“Essas políticas imediatas ajudam a estabelecer um nível de segurança significativo em todo o ecossistema e, como são lançadas como código aberto, podem ser adaptadas e melhoradas ao longo do tempo”, disse Robbie Torney, chefe de avaliações digitais e de IA da Common Sense Media, em um comunicado.
A OpenAI observou em seu blog que os desenvolvedores, incluindo equipes experientes, muitas vezes lutam para traduzir as metas de segurança em regras operacionais precisas.
“Isso pode levar a lacunas na proteção, aplicação inconsistente ou filtragem excessivamente ampla”, escreveu a empresa. “Políticas claras e bem definidas são uma base crítica para sistemas de segurança eficazes.”
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
A OpenAI admite que estas políticas não são uma solução para os complicados desafios da segurança da IA. Mas baseia-se nos seus esforços anteriores, incluindo salvaguardas ao nível do produto, tais como controlos parentais e previsão de idade. No ano passado, OpenAI diretrizes atualizadas por seus grandes modelos de linguagem – conhecidos como Especificações do modelo — para abordar como seus modelos de IA devem se comportar com usuários menores de 18 anos.
No entanto, o OpenAI não possui o histórico mais limpo. A empresa está enfrentando vários processos arquivado por famílias de pessoas que morreram por suicídio após uso extremo do ChatGPT. Esses relacionamentos perigosos geralmente se formam depois que o usuário eclipsa as proteções do chatbot, e as proteções de nenhum modelo são totalmente impenetráveis. Ainda assim, estas políticas são pelo menos um passo em frente, especialmente porque podem ajudar os programadores independentes.

