Ferramentas criadas pelo Instagram para proteger adolescentes de conteúdos nocivos não estão cumprindo seu papel, segundo um estudo divulgado por grupos de segurança infantil e pesquisadores em cibersegurança. A análise identificou que 30 dos 47 recursos prometidos para contas de jovens são ineficazes ou já não estão disponíveis. O relatório também aponta que a plataforma, […]
Ferramentas criadas pelo Instagram para proteger adolescentes de conteúdos nocivos não estão cumprindo seu papel, segundo um estudo divulgado por grupos de segurança infantil e pesquisadores em cibersegurança. A análise identificou que 30 dos 47 recursos prometidos para contas de jovens são ineficazes ou já não estão disponíveis.
O relatório também aponta que a plataforma, controlada pela Meta, teria incentivado crianças a publicar conteúdos que receberam comentários sexualizados de adultos. Em alguns casos, contas simuladas de menores de 13 anos foram direcionadas a postar vídeos e interagir com usuários adultos, recebendo inclusive sugestões de busca relacionadas a suicídio, automutilação e distúrbios alimentares.
Segundo Andy Burrows, CEO da Molly Rose Foundation, os resultados mostram que a empresa prioriza engajamento e lucro em detrimento da segurança. A fundação foi criada após a morte de Molly Russell, de 14 anos, que em 2017 tirou a própria vida após consumir conteúdo nocivo online.
Leia também: Do código ao propósito: a virada de Rosane Chene e a transformação do PAC em um motor de oportunidades
O estudo foi conduzido pelo centro norte-americano Cybersecurity for Democracy, com participação de especialistas como o ex-funcionário da Meta e denunciante Arturo Béjar. Além das falhas em 30 ferramentas, outras nove apresentaram resultados parciais, e apenas oito foram consideradas eficazes.
A Meta rejeitou as conclusões e afirmou que o relatório distorceu a forma como os recursos funcionam. A empresa destacou que as contas para adolescentes, lançadas em 2024 e depois expandidas ao Facebook e Messenger, oferecem proteções automáticas e controles parentais simples.
Em nota à BBC, a companhia declarou que jovens sob essas configurações têm menos contato indesejado, veem menos conteúdo sensível e passam menos tempo conectados à noite. A empresa ressaltou ainda que alguns recursos mencionados como inexistentes foram incorporados a outras funções.
O tema reacende o debate sobre segurança digital de menores. Um porta-voz do governo britânico lembrou que, com a entrada em vigor do Online Safety Act, plataformas são legalmente obrigadas a proteger crianças de conteúdos prejudiciais, incluindo os que promovem suicídio e automutilação. “Por muito tempo, as empresas de tecnologia permitiram que materiais nocivos devastassem vidas jovens e famílias”, afirmou.
Apesar de medidas anunciadas pela Meta nos últimos anos, especialistas como Laura Edelson, co-diretora do Cybersecurity for Democracy, defendem que os mecanismos ainda estão longe de cumprir seu propósito.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!