No segundo dia da audiência pública promovida pelo STF (Supremo Tribunal Federal), nesta quarta-feira, 29, mais 15 pessoas foram ouvidas sobre a constitucionalidade ou não do artigo 19 do Marco Civil da Internet (MCI), a responsabilidade das plataformas sobre os conteúdos publicados pelos usuários e a retirada desse material do ar. Ao todo, entre terça e quarta-feira, foram ouvidos 47 representantes de plataformas, associações, entidades e especialistas em direito digital. Alguns defenderam o artigo 19 do MCI, outros verbalizaram sobre sua inconstitucionalidade e outros ofereceram sugestões à Corte. Nesta quarta não foi diferente e o debate se aprofundou.

Artigo 19 do MCI constitucional ou não?

Marcelo Guedes Nunes, representante da Associação Brasileira de Jurimetria (ABJ), afirmou que a inclusão digital criou um ambiente de maior potencial de litígio, mas as incertezas do marco legal na área também geram litigiosidade.

Para o professor, o Marco Civil da Internet precisa de aprimoramento, mas ainda é uma das políticas públicas mais bem-sucedidas que ele teve a oportunidade de estudar.

“O sistema progrediu muito, mas temos que ter o cuidado de não retroceder. Nosso primeiro dever é não prejudicar o ‘paciente’, então, ter consciência desses avanços é muito importante para evitar em primeiro lugar que haja retrocessos e aí sim poderemos, a partir desse ponto, discutir eventuais avanços, sempre respeitando as duas premissas que fizeram do Marco Civil da Internet um marco regulatório bem-sucedido, que são: o eixo de responsabilidade e uma clareza objetiva na definição das normas”, resumiu.

Para Anderson Schreiber, da Clínica de Responsabilidade Civil da UERJ, o artigo 19 do MCI criou um obstáculo severo à tutela dos direitos fundamentais no âmbito das redes sociais e em outros ambientes digitais. Ele defende a inconstitucionalidade do artigo 19.

CLinica da Uerj Anderson Schreiber

Anderson Schreiber, da Clínica da Uerj. Imagem: reprodução de vídeo

“Ao subordinar a responsabilidade civil das plataformas digitais ao descumprimento de uma ordem judicial específica, o artigo 19 cria uma verdadeira imunidade que não encontra paralelo em nenhum outro setor do Direito Civil Brasileiro. Nenhum outro agente econômico em nenhuma outra atividade econômica no Brasil goza do privilégio de somente ser chamado a responder por um dano quando e se vier a descumprir uma ordem judicial prévia específica”, afirmou.

“A construção de ambientes digitais saudáveis passa pela solução de responsabilidade civil quanto ao conteúdo vinculado. Essa responsabilidade não é apenas de quem produz esse conteúdo, personagem muitas vezes anônimo. Essa responsabilidade é de todos que participam de algum modo da difusão e da amplificação desse conteúdo, especialmente as plataformas digitais”, completou.

A advogada e representante do Instituto Internet no Estado da Arte (ISTART) e do Instituto Norberto Bobbio (INB), Patrícia Peck, também acredita que o artigo 19 não está em conformidade legal e que cabe à Corte uma análise final sobre sua constitucionalidade. “Por ferir o princípio da proteção da dignidade humana e não prever claramente o prazo razoável de atendimento de titular e de ordem judicial, por desbalancear o equilíbrio necessário entre direitos fundamentais, por estimular ganho econômico em cima de monetização da demora do tempo transcorrido, contrariando os preceitos da declaração universal dos direitos humanos, da declaração americana dos direitos humanos, o artigo 19 do MCI está em desconformidade legal, cabendo a essa corte análise final sobre sua constitucionalidade”, avaliou.

Sugestão

Legal Grounds Institute

Ricardo Campos, representante do Legal Grounds Institute. Imagem: reprodução de vídeo

O professor Rodrigo Campos, do Legal Grounds Institute, sugeriu que o STF poderia criar obrigações procedimentais a serem implementadas pelas plataformas na moderação de conteúdo até então privado. Uma delas, já utilizada na Alemanha, seria a necessidade de se ter um canal de denúncias na própria plataforma que seja de fácil acesso para os usuários, de modo que eles próprios possam pedir, questionar a remoção, receber uma justificativa clara e fundamentada pela remoção ou não remoção.

“Em uma sociedade em que essas plataformas estruturam a esfera pública, elas próprias se encontram na melhor posição para proteção imediata do direito de defesa. Cria-se um mecanismo ágil para os usuários, mas também gera uma produção de conhecimento com transparência sobre a gestão privada da liberdade de expressão”, explicou o professor.

Campos acredita que o artigo 19 do Marco Civil da Internet ficaria como uma segunda camada em que o indivíduo teria acesso ao judiciário. “Mas seria muito importante, num plano imediato, criarmos deveres procedimentais e transparências sobre esses procedimentos que poderiam já ser implementados pelo Supremo, garantindo, assim, uma maior e ágil proteção do indivíduo no mundo digital. E, ao final, o judiciário ganharia com tal solução, pois, ao invés de decidir em casos isolados, teria acesso a um conhecimento mais holístico sobre os padrões concretos da gestão da liberdade de expressão da população por entes privados”, concluiu.

Moderação de conteúdo x monetização

ABCID

Daniel Dias, representante da Associação Brasileira de Centros de Inclusão Digital (ABCID). Imagem: reprodução de vídeo

A moderação de conteúdo foi parte da explanação de Daniel Dias, da Associação Brasileira de Centros de Inclusão Digital, que lembrou que as plataformas já promovem a moderação de conteúdo, já decidem sobre aquilo que pode ser apagado ou não. “Acontece que elas fazem de maneira livre e isenta da possibilidade de responsabilização ao menos em relação aos danos decorrentes gerados por terceiros”, complementou.

Essas empresas fazem a moderação de acordo com seus termos de uso e não com base em normas estatais. “A responsabilização das plataformas com base em normas estatais e não com base nos seus termos de uso é um elemento positivo, pois faz com que a moderação não seja feita apenas com base em interesses e decisões das próprias plataformas, mas com base em interesses constitucionais”, observou. E concluiu que o artigo 19 do Marco Civil da Internet deve ser interpretado conforme a Constituição, excluindo-se do dispositivo postagens envolvendo menores de idade e usuários que “envolvem risco sistêmico”.

Peck, neste caso, foi categórica: as plataformas se beneficiam de conteúdos polêmicos, desinformativos e falsos porque geram engajamento e, consequentemente, monetização. Por isso a moderação seria falha.

PatriciaPeck STF

Patrícia Peck, representante dos Instituto Internet do Estado da Arte e Norberto Bibbio. Imagem: reprodução de vídeo

“O modelo de negócio monetiza em cima do tempo do dano e do quanto pior melhor: quanto mais viralização, mais todo o mundo quer saber. O mesmo ocorre com a fake news. A morte de Sofia Loren viraliza e monetiza. Assim como perfil falso, que deveria ser removido imediatamente. Uma fake news que diz que uma pessoa viva está morta, também. Aqui não é uma questão de análise de liberdade de expressão. Aqui é uma questão de coibir monetização em cima do dano causado pela vítima”, afirmou.

Importação de soluções

Fabro Steibel, diretor executivo do ITS Rio, alertou que seria um erro uma possível importação de soluções estrangeiras para lidar com o tema, como o Ato de Serviços Digitais, da União Europeia, a Lei de Execução de Rede (NetzDG), na Alemanha, ou o Online Safety Bill, na Inglaterra.

“A importação de soluções estrangeiras sem a devida reflexão ou sem dados empíricos de eficácia é um risco para a regulação da Internet”, afirmou.

ITS Rio

Fabro Steibel, diretor executivo do ITS-Rio. Imagem: reprodução de vídeo

“Em especial, argumento que o dever de cuidado, conceito conhecido no estudo jurídico, demanda um olhar apurado frente às limitações técnicas de moderação devido aos limites da própria inteligência artificial para compreender cultura. Trago aqui, de forma provocativa, o conceito de “moderação ineficaz por design”. Esse conceito refere-se a situações às quais o uso de mais moderação resulta em menos direitos. Adianto que há soluções para moderar discursos de ódio ou desinformativos. Mas há limites técnicos que devem ser considerados”, argumentou.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!