
Meta é acusada de expor crianças a riscos o que leva a um grande impacto na saúde mental dos jovens usuários. Imagem gerada por IA.
A Meta, controladora do Facebook e Instagram, é acusada de minimizar riscos a crianças e adolescentes, além de enganar o público e o Congresso dos Estados Unidos sobre os impactos de suas plataformas. As informações constam em documentos judiciais divulgados nesta sexta-feira (22) e reportados pela revista Time Magazine.
De acordo com a petição inicial apresentada no Distrito Norte da Califórnia, a empresa sabia que seus produtos agravavam problemas de saúde mental entre jovens e tolerava práticas graves, como o tráfico sexual em suas plataformas. O processo integra uma ação judicial multidistrital que reúne mais de 1.800 demandantes — entre pais, escolas e procuradores-gerais estaduais — contra as controladoras de Instagram, TikTok, Snapchat e YouTube.
Política de “17 advertências” para tráfico sexual
Um dos depoimentos mais contundentes é o de Vaishnavi Jayakumar, ex-chefe de segurança e bem-estar do Instagram. Segundo ela, a Meta mantinha uma política de “17 advertências” para contas suspeitas de tráfico sexual.
“Você poderia acumular 16 violações por prostituição e aliciamento sexual, e só na 17ª seria suspenso”, teria afirmado Jayakumar. A política seria corroborada por documentos internos da empresa.
Os autores do processo também alegam que a Meta não oferecia um canal adequado para denunciar conteúdo de abuso sexual infantil, apesar de manter opções para reportar infrações menores, como spam ou violação de direitos autorais.
Engano ao Congresso e ocultação de pesquisas internas
A ação sustenta que a empresa mentiu ao Congresso dos EUA ao negar conhecer os efeitos do Instagram sobre a saúde mental de adolescentes. Documentos internos mostram que a Meta conduziu estudos em 2019 e 2020 revelando que adolescentes que se afastaram das redes apresentaram menos sintomas de ansiedade e depressão — mas os resultados não foram divulgados.
Em resposta a perguntas do Senado sobre a correlação entre uso das plataformas e aumento de depressão em meninas adolescentes, a empresa respondeu apenas “não”.
Acesso de adultos a perfis de adolescentes
Outro ponto do processo diz respeito à dificuldade em proteger menores de interações com adultos desconhecidos. Pesquisas internas indicaram, desde 2019, a necessidade de tornar contas de adolescentes privadas por padrão. No entanto, executivos da Meta teriam adiado a medida por temer impacto no crescimento da base de usuários.
Segundo os documentos, a empresa sabia que, em 2020, tornar as contas privadas poderia reduzir em 1,5 milhão o número de adolescentes ativos mensais — e optou por não implementar a mudança. A política de privacidade padrão só foi adotada em 2024. Nesse intervalo, estima-se que bilhões de interações indesejadas entre adultos e jovens tenham ocorrido.
Estratégia para atrair usuários jovens
A petição ainda afirma que a Meta teria adotado uma estratégia deliberada para conquistar usuários cada vez mais jovens — inclusive menores de 13 anos, o que é proibido por lei. Internamente, funcionários compararam a prática à tática da indústria do tabaco:
“Parece que estamos mesmo dizendo ‘precisamos viciá-los desde cedo’”, teria escrito um colaborador.
Pesquisas internas apontam que, em 2018, 40% das crianças de 9 a 12 anos já usavam o Instagram regularmente.
Resistência a medidas de segurança e bem-estar
Os documentos mostram que projetos criados para reduzir impactos psicológicos negativos — como o “Projeto Daisy”, que escondia o número de curtidas — foram descartados por prejudicar métricas de engajamento e receita publicitária. O mesmo ocorreu com filtros de beleza, inicialmente banidos em 2019, mas reintroduzidos no ano seguinte.
Produtos “viciantes” e filtros de automutilação
Pesquisadores internos descreveram o Instagram como “uma droga” e reconheceram o caráter viciante das plataformas. Ainda assim, a empresa teria minimizado publicamente o problema e ocultado dados que indicavam uso problemático em mais da metade dos usuários.
A ação também acusa a Meta de não excluir automaticamente conteúdos sobre automutilação e transtornos alimentares, mesmo quando os algoritmos identificavam violações com alta precisão.
Reações e contexto
Após a divulgação dos documentos, a Meta não respondeu de imediato aos pedidos de comentário da Time Magazine. A empresa vem implementando, desde 2024, recursos voltados à proteção de adolescentes, como contas privadas por padrão e controle parental ampliado.
Apesar disso, os autores do processo afirmam que as medidas chegaram tarde e só foram tomadas após forte pressão pública e judicial.
A ação contra a Meta se soma a uma ofensiva judicial sem precedentes contra as gigantes da tecnologia, acusadas de priorizar crescimento e lucro em detrimento da segurança e da saúde de milhões de jovens usuários.
Leia também:























