Redes sociais falham em conter exposição de crianças, apontam especialistas

Mesmo com sistemas avançados de detecção, a exposição indevida de crianças e adolescentes nas redes sociais continua sendo um problema. Especialistas afirmam que o modelo de negócios das plataformas, baseado no engajamento e na monetização, reduz o interesse das empresas em remover rapidamente esse tipo de conteúdo.

O debate ganhou força após o influenciador Felca publicar um vídeo acusando Hytalo Santos de usar adolescentes para criar conteúdos com conotação sexual. O material teria sido consumido por homens adultos. Felca também mostrou que áreas de comentários de algumas postagens reúnem perfis oferecendo troca de imagens explícitas envolvendo menores.

Modelo de negócios e riscos à proteção

Instagram, TikTok e YouTube afirmam proibir a sexualização de menores. No entanto, especialistas apontam que o próprio desenho das plataformas favorece a circulação desse material. Para Raquel Saraiva, presidente do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec), manter usuários conectados por mais tempo amplia o alcance de publicações que geram interação, mesmo quando violam regras.

Maria Mello, coordenadora do Instituto Alana, questiona o investimento real das empresas no combate a esse conteúdo. “As plataformas têm tecnologia de ponta. Porém, até que ponto estão dispostas a gastar para enfrentar o problema?”, afirma. Ela acrescenta que o modelo econômico atual, centrado em algoritmos de recomendação, mantém um ambiente onde a circulação de material nocivo não é plenamente interrompida.

O cenário poderia mudar com medidas semelhantes às usadas na proteção de direitos autorais. Raquel sugere filtros que bloqueiem a monetização de vídeos com imagens de crianças. A estratégia é viável, mas pode gerar críticas por afetar influenciadores e anunciantes.

A repercussão do vídeo levou a Câmara dos Deputados a retomar a discussão do PL 2628/2022, que trata da proteção de crianças nas redes. O texto proíbe pornografia e jogos de azar. Porém, não define de forma clara um “dever de cuidado” para as plataformas.

O Supremo Tribunal Federal já decidiu que empresas de tecnologia serão responsabilizadas por falhas sistêmicas na remoção de crimes sexuais contra vulneráveis. Isso inclui pornografia infantil e abusos graves contra crianças e adolescentes.

O que dizem as plataformas

A Meta, controladora de Facebook e Instagram, declara que remove conteúdos de exploração sexual infantil assim que identificados. A empresa afirma usar sistemas de inteligência artificial para analisar fotos e textos e detectar violações.

O TikTok diz proibir a monetização de contas de menores de 18 anos e conteúdos que coloquem jovens em risco. Segundo a plataforma, há prioridade na remoção rápida de material grave. O YouTube também proíbe vídeos que exponham crianças a riscos e remove esse tipo de conteúdo assim que é localizado.

Como reduzir a exposição

Especialistas recomendam limitar a divulgação de fotos e vídeos de crianças na internet. Mesmo com restrições de público, não existe garantia de que o conteúdo ficará restrito a pessoas conhecidas.

Maria Mello alerta que a exposição precoce pode prejudicar o desenvolvimento psicossocial. Raquel Saraiva defende que pais e responsáveis mantenham diálogo aberto. Também devem oferecer informações para que crianças se sintam seguras ao denunciar conteúdos nocivos.

Ferramentas de controle em Android, iPhone e nas próprias redes sociais permitem acompanhar interações, limitar tempo de uso e restringir contatos. Para especialistas, essas ações são parte essencial de uma navegação segura.