O Conselho de Supervisão do Facebook, grupo semi-independente que analisa o processo de moderação de conteúdo da mídia social, pediu mais transparência para a companhia. Em seu relatório apresentado nesta quinta-feira, 21, o conselho concluiu que o Facebook não foi totalmente franco com o comitê em seu sistema de verificação cruzada (cross-check, em inglês) que a empresa utiliza para revisar decisões de conteúdo relacionadas a perfis de personalidades (high-profile users, em inglês). Assim, aceitou publicamente uma solicitação do próprio Facebook para que o comitê revisasse a verificação cruzada e recomendasse alterações. A companhia também compartilhará documentos relacionados a reportagens do The Wall Street Journal, que descreveu a verificação cruzada como um sistema que “protege milhões de usuários VIPs do processo normal de fiscalização da empresa”.
Para este trabalho, o conselho diz que agora vai entrar em contato com acadêmicos, pesquisadores e ex-funcionários do Facebook que se apresentaram como denunciantes. O grupo também abrirá um período de comentários públicos nos próximos dias, algo que também foi feito no período de análise do banimento de Donald Trump.
O conselho também recomendou ao Facebook que seja mais claro com os seus usuários a respeito de suas regras. A primeira sugestão é traduzir para diferentes idiomas suas políticas.
“A transparência é claramente uma área em que o Facebook deve melhorar com urgência e queremos fazer parte da solução. Nossas recomendações pedem repetidamente que o Facebook siga alguns princípios centrais de transparência: torne suas regras facilmente acessíveis nos idiomas de seus usuários; diga às pessoas o mais claramente possível como você toma e impõe suas decisões; e, se as pessoas violarem suas regras, diga exatamente o que fizeram de errado”, escreveram os autores.
O relatório
Este é o primeiro relatório do tipo publicado e abrange o quarto trimestre de 2020, além do primeiro e segundo trimestres de 2021. O conselho comunicou que lançará a partir de agora análises trimestrais.
Seguem outros apontamentos:
- Entre outubro de 2020 e final de junho de 2021, os usuários do Facebook e Instagram enviaram cerca de 524 mil casos ao conselho. Os recursos dos usuários aumentaram em cada trimestre, com cerca de 114 mil casos no quarto trimestre de 2020, 203 mil casos no primeiro trimestre de 2021 e cerca de 207 mil casos no segundo trimestre de 2021.
- Dois terços dos recursos em que os usuários queriam que seu conteúdo fosse restaurado estão relacionados à incitação ao ódio ou intimidação.
- Até o final de junho de 2021, o relatório estima que mais de um terço dos casos submetidos ao conselho (36%) estavam relacionados às regras do Facebook sobre discurso de ódio. O comitê estima que bullying e assédio representaram outro terço (31%) dos casos apresentados, com violência e incitação (13%), nudez e atividade sexual de adultos (9%) e pessoas e organizações perigosas (6%) constituindo a maioria dos casos restantes.
- As solicitações de até o final de junho estavam particularmente concentradas nos Estados Unidos e Canadá, de onde se originou um total combinado de cerca de 46%, enquanto 22% dos casos vieram da Europa e 16% da América Latina e Caribe. As estimativas sugerem que 8% dos casos vieram da região da Ásia Pacífico Oceania, 4% do Oriente Médio e Norte da África, 2% vieram da Ásia Central e do Sul e 2% vieram da África Subsaariana.
“Isso não reflete a composição demográfica geral do Facebook, e o conselho diz que conduzirá mais divulgação para obter relatórios de outras áreas”, pontua o relatório.