[Matéria atualizada em 4/12/23, às 9h30, para modificar informações sobre preservação da integridade da informação e sistema de alto risco e as plataformas digitais] A votação do texto sobre o marco legal da IA foi adiada mais uma vez na Comissão Temporária de Inteligência Artificial (CTIA), nesta terça-feira, 3. Isso porque governo e oposição ainda não entraram em consenso no que tange a “integridade da informação”. Outros dois pontos polêmicos viraram uma queda de braço entre plataformas/oposição e governo: a questão dos direitos autorais e a exclusão da classificação de sistemas de distribuição de conteúdo em larga escala como de alto risco. Segundo o Idec, isso pode aumentar o número de golpes, fraudes e desinformação nas redes sociais. Uma nova sessão foi marcada para quinta-feira, 5, às 9h, e, se tudo caminhar para o bom entendimento, a matéria, por meio do PL 2338/23, segue no mesmo dia para o Senado, onde será votada às 11h.
Carlos Viana (Podemos-MG), presidente da CTIA, foi categórico: a votação acontece com ou sem consenso:
“Como presidente da comissão, deixo claro que não há mais prazos para emendas, não há mais prazos para vistas, uma vez que se trata apenas do complemento de um relatório. Mas, pela busca do entendimento, e, principalmente, pela consensualidade, o que é mais importante, já que este relatório contempla vários recortes, vários posicionamentos, setores da sociedade brasileira, queremos ainda permitir que haja discussão entre o relator e aqueles que questionam a redação de alguns pontos”, disse.
Confira os pontos que geraram atritos.
IA e a integridade da informação
O texto explica que integridade da informação é “resultado de um ecossistema informacional que viabiliza e disponibiliza informações e conhecimento confiáveis, diversos e precisos, em tempo hábil para promoção da liberdade de expressão”.
A SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial), por exemplo, será responsável por classificar os sistemas de IA de alto risco, bem como identificar novas hipóteses de aplicação de alto risco, levando em consideração, entre outros aspectos, o risco à integridade da informação, assim como à liberdade de expressão e ao processo democrático.
Porém, o trecho que abordava a ideia de proteção da integridade da informação foi motivo de disputa entre oposição e governo. O senador Marcos Rogério (PL-RO) queria a todo custo retirar o trecho do substitutivo e condicionou a votação à sua exclusão. Mas o governo não abriu mão. No momento, o governo está ganhando na queda de braço e a proteção à integridade da informação continua nos fundamentos da lei, o que obrigaria com que todos os sistemas de inteligência artificial respeitassem essa ideia.
Por conta do não consenso entre as partes, o relator Eduardo Gomes optou por dar mais 48 horas para que as partes negociassem como ficaria o texto até esta quinta-feira, 5, dia final da votação.
“Há diferentes artigos do texto que mencionam a integridade da informação e a exigência do senador veio no sentido de bloquear a votação se isso continuasse no texto. Como é um tema muito relevante para o governo federal e para a sociedade civil, houve uma resistência nesse sentido de não aceitar essa chantagem para sua retirada do texto”, explicou Bia Barbosa, coordenadora de incidência da Repórteres Sem Fronteiras na América Latina.
Ponto para as plataformas: fim do alto risco
O PL determina quais são os sistemas de alto risco e quais são aqueles de uso genérico. O texto estabelece uma série de regras para aqueles de alto risco. Neste caso, o inciso que classificava os sistemas de inteligência artificial usados para fazer curadoria, moderação e recomendações de conteúdos foi excluído do hall de sistemas de alto risco.
O inciso XIII listava como alto risco a “curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação de internet, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados, quando o funcionamento desses sistemas puder representar riscos relevantes à liberdade de expressão e acesso à informação e aos demais direitos fundamentais”.
Todo esse trecho foi retirado.
“O que aconteceu foi que as plataformas acabaram entrando no texto de uma forma muito frágil, com obrigações muito simples de serem cumpridas e que não correspondem de fato ao risco que está colocado tanto do ponto de vista individual como coletivo, para a sociedade”, explicou Barbosa, que atribui a vitória à pressão dos aliados bolsonaristas dentro do Congresso das plataformas digitais.
Direitos autorais
O terceiro ponto de divergência entre oposição e governo federal trata dos direitos autorais. Mas, dessa vez, o governo levou a melhor.
O texto mantido prevê remuneração pelo uso de conteúdos protegidos por direitos de autor, desde conteúdo artístico, jornalístico, obras literárias, audiovisuais que hoje podem ser utilizadas pelos sistemas de inteligência artificial, no Brasil, sem uma regulação protetora a quem tem direito. Assim, o autor pode escolher: ou é remunerado pelo treinamento do sistema de IA com sua obra, ou pode negar este treinamento.
“Felizmente, o senador Eduardo Gomes, que é o relator, está bem comprometido e deve manter no texto”, comentou Barbosa.
Lei complexa
Para Patrícia Peck, advogada especialista em direito digital e CEO e fundadora do escritório Peck Advogados, mesmo com as alterações no texto, sua complexidade pode gerar desafios para a implementação no contexto nacional.
“O relatório é positivo, no sentido de querer avançar para harmonizar desenvolvimento tecnológico, inovação com proteção de garantias fundamentais, como direitos humanos. Mas, ainda, assim, o marco legal ganhou uma complexidade grande. Seria mais fácil começar com uma legislação um pouco mais simples, mais de princípios e conceitos e empoderando seja um colegiado ou uma comissão nacional para a elaboração das suas atualizações”, comentou.
Por outro lado, Peck vê as mudanças ao longo do tempo no texto como positivas, no sentido de estimular a inovação no País.
“Acredito que temos um avanço, no sentido de que o relatório buscou estimular mais a inovação. Houve críticas ao PL 2338 por várias entidades associativas, inclusive Confederação Nacional da Indústria, de estar uma legislação extremamente complexa e que poderia dificultar os investimentos no ecossistema de inovação de inteligência artificial no Brasil”, completou.