Os promotores de uma ação judicial focada em saber se aplicativos de mídia social, como o Instagram, são ou não viciantes e prejudiciais, queriam saber por que a Meta demorou tanto para implementar ferramentas básicas de segurança, como um filtro de nudez para mensagens privadas enviadas a adolescentes. Em abril de 2024, Meta introduzido um recurso que desfocaria automaticamente imagens explícitas em DMs do Instagram – algo que a empresa supostamente entendia ser um problema quase seis anos antes.
Em um depoimento recém-revelado em um processo federal, o chefe do Instagram, Adam Mosseri, foi questionado sobre uma cadeia de e-mail de agosto de 2018 com o Meta VP e Diretor de Segurança da Informação, Guy Rosenonde mencionou que coisas “horríveis” poderiam acontecer através de mensagens privadas do Instagram, também conhecidas como DMs. Essas coisas horríveis poderiam incluir fotos de pau, disse o advogado do reclamante, e Mosseri concordou.
Meta foi solicitado a comentar.
No entanto, o executivo da Meta recuou na linha de questionamento que sugeria que a empresa deveria ter informado aos pais que seu sistema de mensagens não era monitorado, além de remover CSAM (Material de Abuso Sexual Infantil).
“Acho que está bastante claro que você pode enviar mensagens com conteúdo problemático em qualquer aplicativo de mensagens, seja no Instagram ou outro”, disse Mosseri. Ele disse que a empresa tentou equilibrar o interesse das pessoas na privacidade com seus próprios interesses em segurança.
O depoimento também revelou novas estatísticas sobre atividades prejudiciais no Instagram, revelando que 19,2% dos entrevistados, com idades entre 13 e 15 anos, disseram ter visto nudez ou imagens sexuais no Instagram que não queriam ver. Além disso, 8,4% dos jovens de 13 a 15 anos disseram ter visto alguém se machucar ou ameaçar fazer isso no Instagram nos últimos sete dias em que usaram o aplicativo.
Embora um filtro de nudez seja apenas uma das várias atualizações que foram adicionadas ao Instagram nos últimos anos para proteger os adolescentes, os promotores estavam mais interessados em sua demora para agir, em vez de saber se o aplicativo é mais seguro para os adolescentes agora.
Evento Techcrunch
Boston, MA
|
9 de junho de 2026
Mosseri também foi questionado sobre outros tópicos, como um e-mail de um estagiário do Facebook em 2017, que disse que queria encontrar usuários “viciados” do Facebook e descobrir se havia maneiras de ajudá-los.
A cadeia de e-mail de 2018 pretendia servir de exemplo de que a Meta estava ciente dos riscos para menores, mas a empresa levou até 2024 para lançar um produto que abordasse o problema das imagens sexuais enviadas a adolescentes. Isso inclui as imagens enviadas por adultos que podem ter se envolvido em aliciamento, um processo no qual um adulto constrói confiança com um menor ao longo do tempo para manipulá-lo ou explorá-lo sexualmente.
O depoimento fornecido por Mosseri ocorreu durante um dos que hoje são vários processos procurando responsabilizar as grandes tecnologias por prejudicar os adolescentes. Esse caso particularque ocorre no Tribunal Distrital dos EUA, no Distrito Norte da Califórnia, envolve demandantes alegando que as plataformas de mídia social são defeituosas porque foram projetadas para maximizar o tempo de tela, o que incentiva o comportamento viciante em adolescentes. Os réus incluem Meta, Snap, TikTok e YouTube (Google).
Ações semelhantes também estão em andamento no Tribunal Superior do Condado de Los Angeles e no Novo México.
Os advogados dos casos esperam provar que as grandes empresas de tecnologia priorizaram a necessidade de crescimento de usuários e maior envolvimento em detrimento dos danos potenciais que impactam seus usuários mais jovens.
O momento destes julgamentos ocorre em meio a um número crescente de leis que restringem o uso de mídias sociais por adolescentes, tanto em vários estados dos EUA como no exterior.

