Em meio à discussão sobre a responsabilidade de plataformas digitais nos atos terroristas de 8 de janeiro, no Brasil, que aceleraram o debate sobre a necessidade de regulação das redes sociais, a Meta destacou seu posicionamento, nesta terça-feira, 28. Em comunicado apresentando a respeito dos resultados sobre a remoção de conteúdos de suas plataformas durante o período eleitoral, a companhia afirmou que a responsabilidade pelas invasões em Brasília é das pessoas que cometeram os atos criminosos.

“É natural que conteúdos sobre grandes acontecimentos apareçam nas redes sociais, pois é assim que as pessoas se comunicam há anos. Mas a responsabilidade pelos acontecimentos ocorridos no Brasil em 8 de janeiro é de quem infringiu a lei ao invadir e destruir prédios públicos”, disse.

Segundo a companhia, bilhões de dólares foram investidos nos últimos anos em tecnologia e equipes para reduzir prevalência de conteúdo nocivo nas plataformas da companhia. “Na Meta, temos trabalhado por muitos anos no combate ao discurso de ódio, incitação à violência e desinformação usando uma série de ferramentas e métodos. E a ideia de que não agimos para proteger as eleições no Brasil de 2022 simplesmente não é corroborada pelos fatos ou dados”, posicionou-se.

“Acreditamos que as empresas privadas não devem tomar tantas decisões importantes sozinhas e que é necessária uma regulação clara e consistente a ser seguida por todas as plataformas. Continuaremos a dialogar com legisladores, reguladores, Judiciário e outras partes interessadas no Brasil e no mundo sobre maneiras adicionais de lidar com conteúdo nocivo e desinformação com transparência e responsabilidade”, afirmou.

Resultados

No período entre o início da campanha eleitoral no Brasil, em 16 de agosto de 2022, até 8 de janeiro de 2023, a Meta removeu de suas plataformas os seguintes conteúdos:

  • Facebook: mais de 1 milhão de conteúdos, por violações às políticas de violência e incitação; 570 mil, por discurso de ódio; 380 mil, por bullying e assédio;
  • Instagram: mais de 960 mil conteúdos por violações às políticas de violência e incitação; 520 mil, por discurso de ódio; 630 mil conteúdos, por bullying e assédio.

A Meta também informou que cumpriu as solicitações de autoridades e tribunais, que pediram “a preservação ou a divulgação de dados de usuários, ou a indisponibilização de conteúdos, em tempo hábil”.