Moderadores do TikTok dizem serem treinados com conteúdo de abuso sexual infantil

Relatório da Forbes diz que funcionários alegam a ter que lidar diariamente com imagens envolvendo abuso sexual infantil
06/08/2022 às 00:16 | Atualizado há 12 meses
moderadores tiktok abuso sexual infantil

Um relatório da Forbes levanta questões sérias sobre como a equipe de moderação do TikTok lida com material de abuso sexual infantil – alegando que concedeu acesso amplo e inseguro a fotos e vídeos ilegais.

Funcionários de uma empresa de moderação terceirizada chamada Teleperformance, que trabalha com o TikTok entre outras empresas, alegam que foi solicitada a revisão de uma planilha perturbadora chamada DRR ou Leitura obrigatória diária nos padrões de moderação do TikTok. A planilha supostamente continha conteúdo que violava as diretrizes do TikTok, incluindo “centenas de imagens” de crianças nuas ou sendo abusadas. Os funcionários dizem que centenas de pessoas no TikTok e na Teleperformance podem acessar o conteúdo de dentro e de fora do escritório – abrindo a porta para um vazamento mais amplo.

A Teleperformance negou para a Forbes que mostrou aos funcionários conteúdo sexualmente explorador, e o TikTok disse que seus materiais de treinamento têm “controles de acesso rígidos e não incluem exemplos visuais de CSAM”, embora não tenha confirmado que todos os fornecedores terceirizados atendem a esse padrão. “Conteúdo dessa natureza é abominável e não tem lugar dentro ou fora de nossa plataforma, e nosso objetivo é minimizar a exposição dos moderadores de acordo com as melhores práticas do setor. Os materiais de treinamento do TikTok têm controles de acesso rigorosos e não incluem exemplos visuais de CSAM, e nossa equipe especializada em segurança infantil investiga e faz relatórios ao NCMEC”, disse Jamie Favazza, porta-voz do TikTok.

“Moderadores em todas as plataformas lidam com material de abuso infantil — mas dentro de limites estritos” diz o TikTok.

Os funcionários contam uma história diferente, e como Forbes estabelece, é legalmente arriscado. Os moderadores de conteúdo são rotineiramente forçado a lidar com CSAM que é postado em muitas plataformas de mídia social. Mas as imagens de abuso infantil são ilegais nos EUA e devem ser tratadas com cuidado. As empresas devem denunciar o conteúdo ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), preservá-lo por 90 dias, mas minimizar o número de pessoas que o veem.

As alegações aqui vão muito além desse limite. Eles indicam que a Teleperformance mostrou aos funcionários fotos e vídeos gráficos como exemplos do que marcar no TikTok, enquanto jogava rápido e solto com acesso a esse conteúdo. Uma funcionária diz que entrou em contato com o FBI para perguntar se a prática constituía a disseminação criminosa de CSAM, embora não esteja claro se uma foi aberta.

Vale a pena ler o relatório, descrevendo uma situação em que os moderadores não conseguiram acompanhar o crescimento explosivo do TikTok e foram instruídos a assistir a crimes contra crianças por motivos que eles achavam que não correspondiam. Mesmo pelo padrões complicados de debates sobre segurança infantil on-line, é uma situação estranha – e se exata, horrível.

Apaixonado por tecnologia desde cedo, André Luiz é formado em Eletrônica, mas dedicou os últimos 15 anos a explorar as últimas tendências e inovações em tecnologia. Se tornou um jornalista especialista em smartphones, computadores e no mundo das criptomoedas, já compartilhou seus conhecimentos e insights em vários portais de tecnologia no Brasil e no mundo.
Tekimobile Midia LTDA - Todos os direitos reservados