O julgamento sobre a constitucionalidade ou não do artigo 19, do Marco Civil da Internet (MCI) e de responsabilização civil das plataformas de provedoras de Internet por publicação de conteúdos de terceiros, continuou nesta quarta-feira, 11, com a leitura do voto do ministro Luiz Fux. O relator do caso que envolve a rede social Orkut, do Google, propôs a remoção de conteúdo ilícito sem a necessidade de ordem judicial. Entre os crimes, o ministro listou pedofilia, incitação à violência, discurso de ódio, entre outros, e as companhias devem monitorar este tipo de conteúdo. Fux seguiu o voto de Dias Toffoli sobre a inconstitucionalidade do artigo 19 do MCI. Após a leitura do voto, o presidente da Casa, Luís Roberto Barroso, pediu vista. O caso volta ao plenário na próxima quarta-feira.

Fux também comentou que as plataformas sabem que divulgam conteúdo ilícito quando ele é pago, ou seja, postagem impulsionada, e que devem ser responsabilizadas também por isso.

Confira em detalhes as propostas do ministro relator:

  • A disposição do artigo 19 do MCI não exclui a possibilidade de responsabilidade civil dos provedores de aplicação de Internet por conteúdos gerados por terceiros nos casos em que, tendo ciência do conhecimento dos atos ilícitos, seja por quanto evidente seja porque devidamente informados por qualquer meio idôneo, não precederem à remoção imediata do conteúdo

Considera-se evidentemente ilícito:

  • O conteúdo gerado por terceiros que veicule discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia a abolição violenta ao estado democrático de direito e apologia a golpe de estado.

Nessas hipóteses específicas cabe às empresas de provedor o dever de monitoramento ativo.

  • Para os casos de postagens ofensivas à honra, à imagem e à privacidade – como injúria, calúnia e difamação –, as empresas provedoras de aplicações deverão receber notificação pelos interessados. Caberá às empresas disponibilizar “meios eletrônicos eficientes, funcionais e sigilosos para exame de denúncia e reclamações de seus usuários que se sintam lesados”, disse.
  • E as plataformas digitais devem ser responsabilizadas por conteúdo ilícito produzido por terceiros “nos casos de postagem onerosamente impulsionada”. Ou seja, quando o conteúdo ilegal for pago, as empresas têm a obrigação (serão responsabilizadas) de retirá-lo, uma vez que foi pago e tem uma fonte pagadora.

Com o voto de Fux, a corte tem, até o momento, dois votos favoráveis à remoção de conteúdo sem a necessidade de ordem judicial.

O que as plataformas fazem a imprensa não pode fazer

artigo 19; Google; Luiz Fux

Plenária do STF durante julgamento sobre responsabilização das empresas provedoras de Internet por conteúdos de terceiros publicados em suas plataformas. Crédito: reprodução da imagem

“Olha que zona de conforto. A plataforma diz ‘não tenho como tirar. Isso é para garantir a continuidade dos negócios’. E por que? Porque isso circula, viraliza e quanto mais cliques na viralização da degradação, aparecem mais anúncios e rende mais dinheiro. A imprensa tradicional pode fazer isso? Não”, disse.

Em outro momento, Dias Toffoli comentou sobre a imprensa tradicional para explicar que ela não pode publicar um anúncio falso.

“Se a Globo, o SBT, TV Record e a Band TV fizerem um anúncio falso do banco Itaú elas são imediatamente responsabilizadas. Se fizerem um anúncio falso do Magalu, elas são imediatamente responsabilizadas. O artigo 19 tem uma proposta ativa, não é omissiva. É de uma imunidade incompatível com o sistema constitucional vigente. É disso que se trata”, resumiu.

Liberdade de expressão

Com relação à justificativa das plataformas provedoras de conteúdo de que se está tolhendo a liberdade de expressão, Fux questionou este argumento.

“A liberdade pode levar à supressão da liberdade. Essa liberdade, com a criação de echo chambers (câmeras de eco, nas quais os conteúdos acabam se espalhando, ecoando), leva à falta de liberdade. Liberdade é autodeterminação. Você pensa o que você acha e não o que a plataforma acha. Ou o que a plataforma divulga. Mas é aquela história: uma mentira repetida inúmeras vezes é uma verdade. Estamos caindo numa falácia de liberdade de expressão. Não se pode esquecer de que elas são negócios e visam a maximização dos lucros”.

Sobre o caso específico

Fux julga um caso de uma comunidade no Orkut criada para difamar e caluniar uma professora do estado de Minas. Estudantes falavam mal dela e, quando descobriu, a professora pediu que a comunidade fosse excluída da rede social, em 2010, quando acionou a empresa. O Orkut, ou o Google, dono da plataforma, negou a remoção. A professora ganhou a ação (com pedido de indenização) na primeira e na segunda instância, mas a plataforma digital recorreu.

Como o caso é anterior ao Marco Civil da Internet, Fux lembrou que a lei não existia, mas que a empresa deveria cumprir a Constituição de 1988.

“Devidamente cientificada a empresa se recusou a remover a página, alegando que ela não infringiria as leis nem as políticas da plataforma”, descreveu Fux. Vale lembrar que o Orkut não existe desde setembro de 2014, ou seja, há mais de 10 anos.

O artigo 19

O julgamento começou em 27 de novembro com a apresentação de defesas de diversos amigos da corte, que apresentaram argumentos tanto na defesa da constitucionalidade do artigo 19 do MCI quanto pela sua inconstitucionalidade, e se as plataformas deveriam ser responsabilizadas por conteúdo publicado em suas plataformas.

Dias Toffoli foi o primeiro ministro a proferir seu voto. Relator do caso que envolve o Facebook, Toffoli defendeu que o artigo 19 é inconstitucional e oferece imunidade às plataformas.

A resposta do Google

Em comunicado enviado a este noticiário na última terça-feira, 10, o Google defende mudanças no Marco Civil da Internet (MCI), porém, alertou que a regulação deve estabelecer garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura.

A plataforma digital argumentou que remove, “com eficiência e larga escala”, conteúdos que violam as regras de suas plataformas. “São centenas de milhões de conteúdos removidos por ano pela própria empresa, em linha com as regras públicas de cada produto”, continua.

O Google acredita que a necessidade de notificação judicial para casos difíceis de serem avaliados pelas plataformas deve ficar a cargo do judiciário e, por isso, valoriza a atuação judicial para definir a linha tênue entre discursos ilegais ou inapropriados e pertinentes.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!