O Google defende mudanças no Marco Civil da Internet (MCI), porém, alerta que a regulação deve estabelecer garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura.

Em nota enviada a este noticiário nesta terça-feira, 10, a plataforma digital argumenta que remove, “com eficiência e larga escala”, conteúdos que violam as regras de suas plataformas. “São centenas de milhões de conteúdos removidos por ano pela própria empresa, em linha com as regras públicas de cada produto”, continua.

O Google acredita que a necessidade de notificação judicial para casos difíceis de serem avaliados pelas plataformas deve ficar a cargo do judiciário e, por isso, valoriza a atuação judicial para definir a linha tênue entre discursos ilegais ou inapropriados e pertinentes.

“Entretanto, boas práticas de moderação de conteúdo por empresas privadas são incapazes de lidar com todos os conteúdos controversos, na variedade e complexidade com que eles se apresentam na internet, refletindo a complexidade da própria sociedade. A atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas situações e traçar a fronteira entre discursos ilícitos e críticas legítimas”, avalia a empresa.

Google; artigo 19; marco civil da internet; Dias Toffoli

Dias Toffoli, ministro do STF, durante a leitura de seu voto sobre possível inconstitucionalidade do artigo 19 do Marco Civil da Internet. Crédito: reprodução de vídeo

Voto de Dias Toffoli

Em seu voto, proferido na semana passada, o ministro do STF Dias Toffoli entendeu que o artigo 19 dá imunidade às empresas e, portanto, é inconstitucional. Disse ainda que a responsabilização das plataformas por conteúdos de terceiros deve se basear no artigo 21 do próprio MCI, que nada mais é do que a obrigatoriedade de retirada do conteúdo após simples notificação (notice and takedown).

Atualmente, o artigo 21 aborda somente casos de direitos da intimidade e dignidade sexuais, ou seja, exposição de imagens, vídeos ou outros materiais contendo cenas de nudez ou de atos sexuais. O ministro determina que o artigo 21 trate de todos os direitos fundamentais no meio ambiente digital – direitos à intimidade, à vida privada, à honra e imagem – que tratam da dignidade da pessoa humana, como consta no artigo primeiro da Constituição.

Com relação aos blogs, Toffoli defendeu que sejam submetidos à lei que trata do direito de resposta aplicada a empresas jornalísticas e não ao MCI.

Para o ministro, as plataformas de busca devem ser responsabilizadas por anúncios falsos que, segundo ele, aparecem muitas vezes com mais destaque do que os sites das empresas verdadeiras.

Defesa do Google no STF

No primeiro dia do julgamento dos recursos que tratam da responsabilidade das plataformas digitais a respeito dos conteúdos publicados por seus usuários, os ministros também começaram a análise de possível remoção das postagens – se devem ser feitas por meio de decisão judicial ou pela própria empresa.

Em sua fala no plenário, no dia 27 de novembro, o Google do Brasil disse acreditar na compatibilidade do MCI com a Constituição brasileira, mas entende que poderia ser aperfeiçoado. A empresa afirmou que o artigo 19 não impede que conteúdos nocivos sejam removidos sem prévia decisão judicial. Muito pelo contrário.

De acordo com o seu advogado, Eduardo Bastos Furtado de Mendonça, essa “é a imensa maioria dos casos.” Dados apresentados por ele mostram que, somente em 2023, o YouTube removeu cerca de 1,7 milhão de conteúdos por violação de suas políticas “que incorporam e refletem vedações da legislação”. E, por sua vez, computou que chegaram à plataforma 614 ordens judiciais e que “não necessariamente essas ordens redundaram em remoções”, contou.

Com esses argumentos, Mendonça defendeu que não existe inércia decorrente do modelo de negócios das plataformas em remover conteúdos de usuários, já que a “imensa maioria dos usuários e a generalidade dos anunciantes não têm interesse e repudiam esse tipo de conteúdo”.

No entanto, é possível haver erros. Os conteúdos que chegam ao judiciário são controversos e demandam ponderação judicial. “E não seria sequer positivo criar incentivos para que esse tipo de conteúdo caia sem a necessidade de exame judicial”, afirmou. “É natural que essas controvérsias existam e que sejam submetidas ao judiciário”, complementou, alegando que esse mecanismo é uma segurança jurídica criada pelo estado.

Em sua fala, o advogado da plataforma digital defendeu que se amplie no artigo 21 as hipóteses em que se admite a notificação extrajudicial como marco de responsabilidade civil e que isso tenha “parâmetros que evitem a banalização da remoção, a insegurança jurídica e a indução de censura privada”. As notificações precisam apontar o conteúdo classificado como ilícito de forma específica e “não genericamente para evitar pescarias” e que sejam apontadas as razões da ilicitude.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!