A consulta da AGU (Advocacia-Geral da União) sobre a política de moderação de conteúdo nas redes sociais se encerrou nesta sexta-feira, 24, com 87 contribuições de 78 autores*, entre posicionamentos favoráveis e contrários à regulação. As manifestações institucionais, no entanto, são marcadas pela defesa do reforço de medidas contra a desinformação e conteúdos ilícitos nas plataformas digitais.
O órgão realizou uma audiência pública e abriu por 11 dias a Tomada de Subsídios, pela plataforma Participa + Brasil, para complementar as colaborações feitas ao Supremo Tribunal Federal (STF), no âmbito do julgamento sobre a responsabilidade dos provedores de aplicações de internet – o que inclui as big techs – com base no Artigo 19 do Marco Civil da Internet.
O dispositivo em questão diz que o provedor somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado pelos usuários se, após ordem judicial, não excluir tal postagem infringente. A lei expressa que a regra em questão tem “o intuito de assegurar a liberdade de expressão e impedir a censura”. Com isso, o debate observa se haveria aplicação inadequada da regra em casos que, por exemplo, não necessariamente envolvem a liberdade de expressão, o que estaria favorecendo a violação de outros direitos fundamentais.
A AGU já se manifestou oficialmente no processo, ainda em dezembro do ano passado, no sentido de que as plataformas deveriam remover conteúdos ilícitos independentemente de ordem judicial específica ou notificação extrajudicial. No entanto, o órgão se mobilizou neste ano para encaminhar mais subsídios ao Supremo, o que ocorreu após a Meta – responsável pelo Facebook, Instagram e Threads – questionar os impactos na checagem de fatos nos EUA, com acusações de “censura”, levantando dúvidas sobre a formação de uma tendência sobre o tema.
A Meta já se pronunciou diretamente à AGU, informando que o programa de verificação de fatos e filtragem não será descontinuado no Brasil, mas reconheceu flexibilizações em suas políticas de “conduta de ódio” (saiba mais abaixo).
Contribuições
Na consulta da AGU, representantes de instituições que atuam no jornalismo profissional e sem fins lucrativos consideram que há riscos de aumento das violações de direitos com a redução da moderação de conteúdo. A agência Aos Fatos aponta que “a Meta não apresentou evidências de erros no trabalho dos checadores”.
A agência também destacou levantamento realizado por ela no qual aponta que a nova política de moderação de conteúdo estaria permitindo conteúdos considerados criminosos de acordo com a lei do país, como expressões de supremacia racial e de preconceito religioso.
A Agência Pública de Jornalismo Investigativo também fez referência ao mesmo levantamento, argumentando que moderar conteúdos com base na lei brasileira é “uma questão de soberania nacional”, caso contrário seria “concentrar o poder de moderação nas mãos de um só grupo em um único país, os Estados Unidos, e permitir que essa decisão mude de acordo com os ventos políticos”.
A organização Repórteres Sem Fronteiras (RSF) chamou atenção para dados que apontam cenário de risco também para profissionais de imprensa no ambiente online. “Pesquisa lançada em 2022 pela Gênero e Número e a RSF mostrou que 19% das agressões contra jornalistas mulheres e LGBTQIA+ são misóginas ou têm conotação sexual, e visam, além de intimidar, causar dano à reputação dessas profissionais”.
A RSF também lembrou que levantamento feito ao longo de 2020 pela Associação Brasileira de Jornalismo Investigativo (Abraji) mostrou que as mulheres foram alvos diretos de 61 violações à liberdade de imprensa, ou 17% do total de ataques nas redes.
Setor de TIC
Entre os representantes de empresas que participaram da consulta pública da AGU, a Associação Brasileira de Provedores de Internet e Telecomunicações (Abrint) relacionou o tema diretamente à legislação, destacando que “o Marco Civil da Internet não impede que provedores de aplicação exerçam a moderação de conteúdo”, como é o caso da remoção de imagens íntimas privadas, previsto na norma. Para a entidade, propostas legislativas que visam punir casos de conteúdo ilícito impulsionado é “uma medida pertinente”.
Ainda segundo a Abrint, “é essencial harmonizar as medidas de transparência com as normas de privacidade e proteção de dados pessoais, garantindo segurança jurídica e o direito dos usuários à autodeterminação informativa”.
“A publicação de dados sobre pedidos de moderação feitos por autoridades é fundamental para promover a accountability e alinhar-se às práticas de transparência já adotadas por plataformas digitais. Dessa maneira, será possível construir uma governança da internet que seja efetiva, inclusiva e ancorada nos princípios democráticos que orientam o uso da internet no Brasil”.
A Associação Brasileira de Emissoras de Rádio e Televisão (Abert) entende que “a moderação de conteúdo criminoso não representa qualquer tipo de censura”.
“A defesa da liberdade de expressão, em seu verdadeiro propósito, não corrobora com a ideia de que conteúdos ilícitos e criminosos possam circular livremente pelas redes, sem qualquer tipo de moderação e responsabilização das mídias digitais, sobretudo quando a arquitetura e monetização de tal negócio também decorre da exploração desse tipo de conteúdo ilegal”
Para a Abert, as plataformas “deveriam atuar de maneira proativa e diligentemente para prevenir, mitigar a disseminação e remover conteúdos gerados por terceiros que possam configurar crimes”. Com exemplo de postagens que poderiam ser removidas, a associação vai além da desinformação, mencionando casos de racismo, terrorismo, suicídio, pornografia, violação a direitos das crianças e adolescentes, publicidade ilegal, anúncios falsos e perfis falsos.
Outro lado
A audiência pública que fez parte do acolhimento de posicionamentos por parte da AGU, realizada na última quarta-feira, 22, ocorreu sem a presença de representantes das plataformas digitais, que rejeitaram o convite, segundo o órgão. As empresas também não constaram entre as colaborações públicas à consulta pública da AGU.
Ao Supremo, a Meta afirmou que removeu por ação própria 208 milhões de postagens relacionadas a pedofilia, violência e discurso de ódio no ano de 2023. A defesa afirmou que a ação envolve “investimentos anuais bilionários em dólares e em tecnologia”.
Ainda de acordo com a empresa em manifestação realizada ao STF, mais de 98% das notificações por perfil falso são removidas automaticamente.
Os dados foram apresentados em dezembro do ano passado, antes do anúncio de mudanças na moderação de conteúdo.
Em resposta a alguns questionamentos da AGU neste ano, a Meta afirmou que “está encerrando seu Programa de Verificação de Fatos independente apenas nos Estados Unidos”, onde vão testar as chamadas “Notas da Comunidade”, isto “antes de dar início a qualquer expansão para outros países”.
Ainda de acordo com a nota, a big tech continuará removendo conteúdo “que incite ou facilite a violência, bem como ameaças plausíveis à segurança pública ou pessoal”, além de “desinformação quando houver a possibilidade de ela contribuir diretamente para risco de lesão corporal iminente”, ou quando possa “interferir diretamente no funcionamento de processos políticos, como eleições e censos” (Acesse aqui a íntegra da resposta).
Na consulta da AGU, os comentários contra a regulação das plataformas digitais se concentraram em pessoas físicas, que temiam, principalmente, riscos à liberdade de expressão.
*O número de autores foi inserido após balanço divulgado pela AGU.
Imagem principal: Ilustração produzida por Mobile Time com IA