Ainda não é hora de o Brasil ter uma lei sobre inteligência artificial. Para os especialistas em IA que participaram do debate durante o Super Bots Experience 2020 nesta sexta-feira, 18, são vários os motivos para adiar projetos de lei sobre o tema. Entre eles estão: a falta de maturidade do mercado, da tecnologia e da sociedade a respeito do assunto e a inconsistência dos projetos de lei que estão tramitando no legislativo tratando da matéria. Mas, sobretudo, os especialistas enfatizaram que é preciso que se promova uma discussão anterior, que inclua temas como ética e uma definição sobre o próprio conceito de inteligência artificial.
“Existe a inteligência artificial estreita, geral, a super IA. Mas estamos no primeiro nível (de debate). Vamos começar a discutir isso com a visão, os cuidados e os alertas necessários, com pessoas de vários segmentos da sociedade”, disse Flávia Lefèvre, advogada especializada em direito digital e do consumidor e representante do Intervozes e da Coalizão Direitos na Rede.
Com relação à ética, Lefèvre lembrou que a IA pode ser aplicada em qualquer segmento da sociedade e cada um deles têm princípios próprios. É o caso, por exemplo, da agricultura, da medicina, da educação. “A gente precisa se aprofundar a respeito da implementação desses princípios, criar espaços de governança de ética em IA. Se quisermos alcançar equilíbrio, precisamos botar o pé no chão, discutir as questões e colocar perguntas necessárias para uma discussão no campo da ética”, resumiu.
Rafael Pellon, consultor jurídico da I2AI e da MEF, lembrou que estamos em meio a uma pandemia e que, por estarmos em estado de calamidade pública desde fevereiro, o País só pode votar esse ano assuntos relacionados à crise causada pelo novo coronavírus. Ou seja, os PLs sobre IA que estão circulando muito provavelmente não serão debatidos no legislativo neste ano. Por outro lado, Pellon ressaltou que a Constituição Federal brasileira já protegeria a sociedade de possíveis abusos da inteligência artificial. “Não nos faltam leis e regulações hoje que se aplicam à IA”, comentou referindo-se em especial a códigos de ética e direitos humanos.
Para Eduardo Magrani, advogado especialista em direito digital e proteção de dados e presidente do Instituto Nacional de Proteção de Dados (INPD), o desafio dos especialistas no momento é de educar a sociedade como um todo em torno desses temas. “Não dá para falar sobre ética em máquinas se não entendermos o que é ética”, explica Magrani. “Existe aí um ponto educacional. Demanda muito esforço nosso para comunicar (para a sociedade) o que é ética. Ainda que a gente tenha vários princípios consensuais, é uma preocupação minha como a gente vai dar concretude a esses princípios”, acrescentou.
Magrani cita dois exemplos recentes: o Marco Civil da Internet e o PL das Fake News. Lembrou que apesar das inúmeras discussões que aconteceram para a formatação do Marco Civil, até hoje ele precisa explicar o que significa neutralidade da rede e sua importância. E, mais recentemente no projeto que trata sobre notícias falsas, a discussão sobre o conceito da notícia falsa em si foi rasa. “Com a IA estamos passando pelo mesmo problema. Os experts sabem falar sobre os detalhes – deep learning, machine learning etc –, mas como sair dessa bolha e digerir os temas técnicos e entregar para a população?”, questionou-se. “Esse é o momento para discutir, mas talvez não para aprovar (uma lei)”, resumiu Magrani.
No lugar da lei, políticas públicas
Se não é o momento de se construir uma regulamentação sobre inteligência artificial, o momento é propício para os debates anteriores à lei – como definição de ética e do que é IA –, mas também para o desenvolvimento de políticas públicas, aposta Christian Perrone, consultor de políticas públicas e pesquisador do ITS Rio. Para o especialista, o momento é de discussão sobre como fomentar a tecnologia de modo a transformar o País em um produtor de IA e não ser apenas um consumidor da tecnologia. “É importante termos laboratórios no País. E precisamos de uma política que seja debatida no âmbito multissetorial e multimatéria, com diferentes pontos de vistas”, lembrou.
Magrani sugere ainda que o Brasil pense em várias regulamentações para IA, de acordo com os setores. “IA para fintechs, IA para setor público de saúde… Talvez uma lei geral caia numa ineficácia jurídica e os danos poderiam se sobrepor aos benefícios”, argumentou.
Autorregulamentação?
O debate enveredou ainda sobre a possibilidade de autorregulação em IA. Para Perrone, o País precisaria de mais maturidade em IA antes de se promover uma autorregulamentação. “Quanto mais estimularmos a produção de IA, mais podemos estimular a regulação e a autorregulação, adequando os valores da sociedade brasileira à IA e na aplicação da IA nas funções públicas”, disse.
Lefèvre alertou para o contexto atual do País: “Acho inapropriado falarmos de autorregulação nesse momento. Temos um cenário de geopolítica que, no meu modo de ver, não é o melhor ambiente para tratarmos do assunto”.
Magrani aponta que existe, sim, um lugar para a autorregulamentação, mas é preciso ter cuidado: “autorregulação depende de maturidade das empresas no tratamento de IA e nos órgãos públicos. No Brasil, não chegamos no estágio de maturidade ao ponto de que a autorregulação seja melhor do que uma regulação mais robusta, como o modelo europeu. Acho que deveríamos partir de uma lei mais consistente”, disse.
O Conselho Nacional de Autorregulamentação Publicitária (Conar) foi citado por Pellon como um exemplo bem sucedido de que a autorregulação é possível. Para o advogado, o mecanismo só será eficaz com câmaras técnicas, julgamentos de casos e sanções, sem deixar as punições para o judiciário.