“O ‘dever de cuidado’ deve estar na nossa agenda número um”, destacou Marina Giancoli, coordenadora-geral de Liberdade de Expressão e Enfrentamento à Desinformação da Secom (Secretaria de Comunicação Social da Presidência da República). Esta e outras observações fazem parte de apresentação da pasta realizada na manhã desta sexta-feira, 14, durante debate online promovido pela Anatel. O evento mostrou uma síntese das contribuições já encaminhadas ao Congresso Nacional no âmbito da construção de regras para responsabilidade das plataformas digitais nos últimos anos, além das expectativas que envolvem debates que ainda estão ocorrendo.

Giancoli sintetizou em cinco pontos algumas das principais demandas da Secom em relação a diretrizes para regulação das plataformas, que embora façam parte das sugestões enviadas ao projeto de lei (PL) 2630/2020, seguem representando as preocupações do governo e devem ser discutidas caso seja adotada uma nova proposta. 

1 – Transparência

A primeira proposta é de implementar “medidas de transparência e ‘devido processo’ de moderação de conteúdo”. 

Este ponto parte do princípio de que “os usuários estão à mercê das empresas, que não respondem em um prazo razoável e não dão informações adequadas” em relação à moderação de conteúdo, como contextualiza a coordenadora. As medidas de transparência almejadas são aquelas que auxiliam a “compreender os efeitos da recomendação de conteúdo”.

2 – Revisão do modelo de responsabilidade

A segunda sugestão é resumida como a “revisão do modelo de responsabilidade das plataformas sobre conteúdo de terceiros”, como forma de “impedir desresponsabilização total (incentivo a conteúdos ilegais e desinformação) ou responsabilização total (risco de efeito de silenciamento)”. Além disso, há o entendimento de que é preciso dar “maior responsabilidade para publicidade e conteúdos patrocinados/impulsionados”.

Ao comentar esse trecho, Giancoli ressaltou que “se elas [plataformas] estão recebendo para impulsionar um contrato, de certa forma elas passam a ser sócias deste conteúdo”, portanto, devem ter um nível de responsabilidade muito maior para evitar que publicidade legal e abusiva esteja circulando nos seus ecossistemas”.

Quanto à cautela para evitar o silenciamento, a coordenadora explica que é preciso, no macro, “olhar para um dever de contenção de danos de conteúdos ilegais”, por um lado, e “criar formas de prevenção de danos, de mitigação”, de outro. “A Justiça vai olhar caso a caso. Mas tem que ter um controle sobre se o ecossistema está sendo construído e atualizado de acordo com o desenvolvimento tecnológico em linha com essas medidas [de mitigação]”.

3 – Análise de riscos sistêmicos

Em linha com as medidas preventivas, a terceira sugestão é exigir que as plataformas “avaliem e atenuem riscos sistêmicos decorrentes dos seus serviços, inclusive algoritmos (sistema semelhante ao adotado na União Europeia)”.

É aqui que entraria uma entidade responsável pela supervisão. “Então você tem que avaliar e atenuar, poderia ter aí um órgão autônomo que faria a avaliação se essa atenuação de riscos sistêmicos é suficiente ou se ela precisa ser aprimorada”,  detalhou.

Vale lembrar que no conjunto de propostas encaminhadas ao Congresso em 2023, o governo manifestou apoio a entender como “riscos” o seguinte:

  • a difusão de conteúdos ilegais no âmbito dos serviços;
  • efeitos negativos significativos, reais ou previsíveis:
    • no exercício dos direitos fundamentais previstos na lei brasileira e nos tratados internacionais dos quais o Brasil é signatário;
    • na garantia e promoção do direito à liberdade de expressão, de informação e de imprensa e ao pluralismo dos meios de comunicação social;
    • sobre temas cívicos e nos processos políticos-institucionais e eleitorais, bem como na segurança pública; e
    • em relação à violência de gênero, à proteção da saúde pública, a crianças e adolescentes e às consequências negativas graves para o bem-estar físico e mental da pessoa.
  • os efeitos de discriminação direta, indireta, ilegal ou abusiva em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão de características pessoais, especialmente em razão de raça, cor, etnia, identidade de gênero, orientação sexual, deficiência, idade, origem, convicções filosóficas, políticas ou religiosas ou por qualquer particularidade ou condição; e
  • efeitos negativos relacionados à prática de crimes contra o Estado Democrático de Direito e crimes de terrorismo. 

4 – Considerar crimes tipificados

A quarta ideia é autoexplicativa: “tratar conteúdos que já são ilegais no ambiente offline como ilegais no ambiente online”.

5 – Liberdade de expressão

Reforçando demandas da revisão do modelo de responsabilidade, o quinto ponto diz: “adotar estruturas regulatórias que supervisionem as obrigações das plataformas, mas que não tenham papel de decisão sobre conteúdos individuais dos usuários”.

A coordenadora-geral de Liberdade de Expressão e Enfrentamento à Desinformação da Secom citou as medidas cautelares aplicadas pela Anatel para evitar a venda de produtos não homologados em marketplaces como forma de exemplificar ações regulatórias que devem ser asseguradas pelos órgãos já instituídos. 

“A Anatel define o padrão dos produtos de telecomunicações, certifica e observa que as plataformas (que vendem produtos) completamente ignoram que existe este controle neste setor. E aí a Anatel faz uma operação gigantesca para garantir que isso não aconteça.  Nesse sentido, a gente entende que é preciso empoderar esse papel. [Se a Anatel] é capaz de certificar [produtos], ela tem que ter essa autoridade no ambiente digital”, afirmou Giancoli.

Próximos debates

Ao longo do debate, a representante da Secom também comentou a discussão que está sendo promovida no âmbito da Fazenda para regulação econômica do ecossistema digital, objeto de consulta pública no ano passado

“Um dos elementos que poderiam ser demandados das plataformas, no caso de enquadramento, enquanto agente relevante de forma sistêmica no ambiente digital, é justamente a interoperabilidade. […] É fundamental pensar também de uma perspectiva de promoção da economia nos países em desenvolvimento. [É] fortalecer o empreendedorismo, e saber que existe toda uma economia dependente de plataformas, [empreendedores] que precisam conseguir estabelecer seus negócios”, disse a representante da pasta.

Giancoli complementa que “diferentemente de outras empresas que são acompanhadas por órgãos para auditá-las, isso não acontece no ambiente digital”.

Na última quarta-feira, 12, a Secretaria de Relações Institucionais do governo encaminhou ao Congresso Nacional um documento com projetos prioritários, em uma lista mais extensa do que a entregue pela equipe econômica na semana passada. No eixo que trata dos direitos digitais, chamado de “Proteção às Famílias e aos Negócios no Ambiente Digital”, além do PL 2630/2020, aparece o PL 2628/2022, que trata da proteção a crianças e adolescentes na rede, e o PL 4691/2024, da oposição.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!