ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
adolescente
Instagram
segurança

Estudo aponta falhas em ferramentas de segurança para adolescentes no Instagram

Ferramentas criadas pelo Instagram para proteger adolescentes de conteúdos nocivos não estão cumprindo seu papel, segundo um estudo divulgado por grupos de segurança infantil e pesquisadores em cibersegurança. A análise identificou que 30 dos 47 recursos prometidos para contas de jovens são ineficazes ou já não estão disponíveis. O relatório também aponta que a plataforma, […]

Publicado: 06/03/2026 às 03:45
Leitura
3 minutos
Adolescente sentado em um sofá, usando um smartphone para acessar suas redes sociais, em um ambiente doméstico com almofadas e uma manta ao fundo. (Google, Meta, Character.AI)
Construção civil — Foto: Reprodução

Ferramentas criadas pelo Instagram para proteger adolescentes de conteúdos nocivos não estão cumprindo seu papel, segundo um estudo divulgado por grupos de segurança infantil e pesquisadores em cibersegurança. A análise identificou que 30 dos 47 recursos prometidos para contas de jovens são ineficazes ou já não estão disponíveis.

O relatório também aponta que a plataforma, controlada pela Meta, teria incentivado crianças a publicar conteúdos que receberam comentários sexualizados de adultos. Em alguns casos, contas simuladas de menores de 13 anos foram direcionadas a postar vídeos e interagir com usuários adultos, recebendo inclusive sugestões de busca relacionadas a suicídio, automutilação e distúrbios alimentares.

Segundo Andy Burrows, CEO da Molly Rose Foundation, os resultados mostram que a empresa prioriza engajamento e lucro em detrimento da segurança. A fundação foi criada após a morte de Molly Russell, de 14 anos, que em 2017 tirou a própria vida após consumir conteúdo nocivo online.

Leia também: Do código ao propósito: a virada de Rosane Chene e a transformação do PAC em um motor de oportunidades

O estudo foi conduzido pelo centro norte-americano Cybersecurity for Democracy, com participação de especialistas como o ex-funcionário da Meta e denunciante Arturo Béjar. Além das falhas em 30 ferramentas, outras nove apresentaram resultados parciais, e apenas oito foram consideradas eficazes.

Reação da Meta

A Meta rejeitou as conclusões e afirmou que o relatório distorceu a forma como os recursos funcionam. A empresa destacou que as contas para adolescentes, lançadas em 2024 e depois expandidas ao Facebook e Messenger, oferecem proteções automáticas e controles parentais simples.

Em nota à BBC, a companhia declarou que jovens sob essas configurações têm menos contato indesejado, veem menos conteúdo sensível e passam menos tempo conectados à noite. A empresa ressaltou ainda que alguns recursos mencionados como inexistentes foram incorporados a outras funções.

Pressão regulatória

O tema reacende o debate sobre segurança digital de menores. Um porta-voz do governo britânico lembrou que, com a entrada em vigor do Online Safety Act, plataformas são legalmente obrigadas a proteger crianças de conteúdos prejudiciais, incluindo os que promovem suicídio e automutilação. “Por muito tempo, as empresas de tecnologia permitiram que materiais nocivos devastassem vidas jovens e famílias”, afirmou.

Apesar de medidas anunciadas pela Meta nos últimos anos, especialistas como Laura Edelson, co-diretora do Cybersecurity for Democracy, defendem que os mecanismos ainda estão longe de cumprir seu propósito.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas