Senadores americanos investigam empresas de tecnologia por falhas na segurança infantil em anúncios
Um relatório recente da Adalytics revelou que anúncios de grandes marcas, incluindo órgãos governamentais, foram veiculados em sites que hospedam material de abuso sexual infantil (CSAM). Em resposta, os senadores Marsha Blackburn (R-Tenn.) e Richard Blumenthal (D-Conn.) enviaram cartas a empresas como Google e Amazon, além de empresas de verificação de anúncios, expressando sérias preocupações.
Preocupações com a Segurança Infantil em Anúncios e o Papel da Inteligência Artificial
A investigação sobre a segurança infantil em anúncios
As cartas detalham preocupações “graves” e “profundas” sobre a colocação de anúncios em sites com CSAM. Os senadores questionam a eficácia das ferramentas de inteligência artificial (IA) usadas pelas empresas de tecnologia para identificar e bloquear esse tipo de conteúdo. Eles argumentam que a inação, ou a ineficácia dessas ferramentas, cria um fluxo de financiamento para atividades criminosas. A disseminação de CSAM é um crime hediondo que causa danos irreparáveis às vítimas, e a responsabilidade das empresas de tecnologia em evitar esse financiamento é enfatizada.
A omissão de empresas de verificação de anúncios
As cartas também foram enviadas aos CEOs das gigantes de verificação de anúncios DoubleVerify e Integral Ad Science (IAS). Os senadores questionam a receita gerada por essas empresas com anúncios em sites problemáticos e como elas realizam a verificação da cadeia de fornecimento, além de sua adesão às diretrizes de proteção infantil. A falta de transparência na cadeia de suprimentos dificulta o rastreamento e a solução de problemas quando os anúncios são veiculados em sites problemáticos, o que pode ter sido um fator crucial para as falhas na segurança infantil em anúncios.
A responsabilidade das empresas de tecnologia
O relatório da Adalytics indica que os sites em questão foram sinalizados desde 2021 em relatórios de transparência do National Center for Missing & Exploited Children (NCMEC). Apesar disso, os anúncios continuaram a ser veiculados. Os senadores questionam a Amazon e o Google sobre seus métodos de verificação de sites de terceiros e a adesão às políticas de censura de atores maliciosos. O caso levanta questionamentos sobre a responsabilidade dessas empresas no combate à exploração infantil online. Google Photos implementa new watermarking feature para imagens editadas por IA
O Impacto da Opacidade na Cadeia de Suprimentos de Anúncios
A falta de transparência na cadeia de anúncios
Especialistas em publicidade e segurança, que analisaram o relatório, apontam que a cadeia de suprimentos de anúncios ainda é muito opaca. Essa falta de transparência torna mais difícil rastrear e corrigir problemas, como a veiculação de anúncios em sites que contêm material de abuso sexual infantil. A dificuldade em identificar e responsabilizar os atores envolvidos na cadeia de suprimentos de anúncios prejudica os esforços para garantir a segurança infantil em anúncios.
Soluções tecnológicas e práticas para o problema
Empresas continuam a depender de tecnologias de “legado” para segurança da marca, mesmo que essas tecnologias se provem ineficazes, o que demonstra a necessidade de mudanças significativas no setor. A capacidade de editores e anunciantes permanecerem anônimos nesses sites é um problema significativo, e essa situação exige a criação de soluções mais eficazes para garantir a segurança de crianças. A falta de transparência e a dependência em tecnologias ineficazes demonstra a necessidade de regulamentação e maior responsabilização das empresas envolvidas na cadeia de anúncios. Criteo altera estratégia e se despede dos cookies de terceiros para garantir privacidade
O futuro da verificação de anúncios e a segurança infantil
As cartas enviadas aos CEOs de DoubleVerify e IAS também questionam a capacidade dos sistemas de IA dessas empresas em identificar e categorizar corretamente o conteúdo como seguro para marcas. A dependência dos anunciantes em tecnologia sem saber onde seus anúncios são exibidos exige maior transparência. A falta de transparência e os questionamentos sobre a eficácia das tecnologias de IA utilizadas apontam para a necessidade de revisão e aprimoramento dos sistemas de verificação de anúncios.
Legislação em andamento para a segurança online de crianças
O relatório da Adalytics surge enquanto o Congresso considera novas leis para proteger crianças de riscos online, incluindo CSAM e violações de privacidade de dados. O Stop CSAM Act exigiria que as plataformas relatassem CSAM e conduzissem relatórios de transparência anuais, criando novas responsabilidades legais para plataformas que intencionalmente hospedam, armazenam, promovem ou facilitam CSAM. O Kids Online Safety Act (KOSA), com 70 co-patrocinadores, inclui novas regras que exigiriam que as plataformas online tomassem mais cuidado para proteger menores de conteúdo relacionado a bullying online, violência física, exploração sexual e exposição a vários tipos de conteúdo, dependendo de suas idades. Essa legislação em andamento demonstra a preocupação crescente com a segurança online das crianças e a necessidade de medidas mais efetivas para protegê-las.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Digiday