Especialistas ouvidas pelo g1 afirmam que modelo das plataformas, focado no engajamento e na monetização, diminui o interesse das empresas em derrubar esse tipo de conteúdo.

A exposição indevida de crianças e adolescentes na internet continua sendo um problema mesmo com várias ferramentas de detecção disponíveis.
O assunto voltou à tona após o influenciador Felca publicar na última quarta-feira (6) um vídeo em que acusa o também influenciador Hytalo Santos de usar adolescentes para produzir conteúdos com cunho sexual que é acessado por homens adultos nas redes sociais.
As principais plataformas dizem que proíbem conteúdo que envolva sexualização de crianças e adolescentes, mas o vídeo mostra que esse material pode ser facilmente encontrado.
Felca disse ainda que a seção de comentários de algumas dessas postagens reúne perfis que se oferecem para trocar material explícito envolvendo pessoas menores de 18 anos.
Especialistas ouvidas pelo g1 afirmam que as redes são capazes de detectar esse tipo de conteúdo, mas apontam um problema no modelo das plataformas, focado no engajamento e na monetização.
Na prática, quanto maior o engajamento, isto é, a interação de usuários com o que é publicado, maior é a chance dessas pessoas continuarem online nas redes sociais. As plataformas, por sua vez, faturam com publicidade e passam parte do valor para influenciadores em programas de monetização.
“Todo mundo está ganhando nessa história, existe muito ganho para as plataformas, só a gente que está perdendo por ser exposto a esse tipo de conteúdo”, diz Raquel Saraiva, presidente do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec).
O Instagram, o TikTok e o YouTube afirmam que têm sistemas que removem automaticamente conteúdos que violam suas regras. E que casos complexos são direcionados para análise de pessoas reais.
“As plataformas têm o que há de mais moderno em termos de identificação e detecção de conteúdos. Mas quanto isso custa e quanto elas estão realmente dispostas a pagar para enfrentar o problema?”, questiona Maria Mello, coordenadora do Instituto Alana, focado na proteção de crianças.
“Não temos a menor dúvida de que é o modelo econômico e o desenho [das redes sociais] que faz com que elas sigam, no mínimo, tolerando a circulação desse tipo de conteúdo”, diz Maria, do Instituto Alana.
Vídeo de influenciador expõe a exploração de crianças e adolescentes nas plataformas digitais e a ação de pedófilos nos perfis
O que mais pode ser feito
Raquel, do IP.rec, cita a proteção de direitos autorais como exemplo de moderação. Hoje, redes sociais têm ferramentas que detectam automaticamente vídeos que usam imagens ou sons de terceiros para derrubar ou reduzir o alcance do material.
“Seria fácil colocar um filtro de que, se aparecer a imagem de uma criança, o vídeo não pode ser monetizado”, afirma a pesquisadora, que vê este como um caminho possível para combater a exploração de vulneráveis na internet.
“Só que, como se criou esse mercado muito grande dos algoritmos, do engajamento nas plataformas digitais, seria uma medida criticada por muita gente”, complementa.
Depois do vídeo de Felca, a Câmara retomou discussões sobre proteção de crianças nas redes sociais. O relatório do PL 2628/2022, que trata do tema, foi apresentado na terça-feira (12) sem tratar do “dever de cuidado” das plataformas, mas com proibição a pornografia e jogos de azar.
O Supremo Tribunal Federal (STF) já tinha decidido em junho que redes serão responsabilizadas por falhas sistêmicas em remover, entre outras coisas, “crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes”.