A Inteligência Artificial (IA) é capaz de cumprir seu papel e ao mesmo tempo proteger os dados dos cidadãos? É possível que a tecnologia não impacte os principais direitos fundamentais garantidos pela Constituição? Estes foram alguns dos principais eixos do debate internacional que aconteceu no Senado, entre os dias 9 e 10 de junho, comandado pela comissão de juristas responsável por entregar um projeto de regulação de IA no Brasil.
“O importante não é regular a tecnologia e sim seu impacto. Pensar sobre o que estamos tentando assegurar como direitos e benefícios, que devem vir de regras humanocêntricas. De que forma isso ajuda os indivíduos e a sociedade, não o contrário”, refletiu Bojana Bellamy, presidente do CIPL (Centro de Liderança em Políticas de Informação), do Hunton Andrews Kurth, em Londres.
Se os sistemas automatizados devem servir ao ser humano, a meta aqui seria garantir que a informação relacionada ao indivíduo seja coletada e utilizada de tal forma que todos os seus direitos fundamentais estejam protegidos. Foi o que defendeu Gabriela Zanfir, representante do Future of Privacy Forum (EUA). “Mesmo que decisões automatizadas atuem em larga escala, é preciso assegurar que essas decisões sejam tomadas de forma justa e que as liberdades pessoais sejam protegidas, como o direito à privacidade, segurança, não discriminação e liberdade de reunião”, afirmou.
Abordagem baseada em riscos
A professora Bellamy, assim como a maioria de seus colegas, sugeriu uma abordagem com base em riscos, sendo que estes devem ser tratados de formas diferentes. Alessandro Mantelero, da Universidade Politécnica de Turim (Itália), concordou e lembrou que, neste tipo de abordagem, é preciso avaliar o risco antes que ele ocorra. Ou seja: a motivação deve ser os direitos humanos, e não os econômicos. “É um tipo de hierarquia entre os interesses. Não quer dizer que você não pode fazer negócios ou não pode ter proteção de interesses econômicos. Mas o foco deve estar nos direitos humanos”.
Já Courtney Lang, representante do Conselho Industrial de Tecnologia e Informação (ITI) com sede nos Estados Unidos, ponderou que os critérios usados para a definição de situação de risco no processamento de dados pessoais por meio de IA deveriam ser definidos em conjunto por governos e empresas de tecnologia. “Precisamos trabalhar com acionistas e olhar quais seriam os maiores riscos para aplicação dessas regulamentações. Seria, claro, papel do governo estabelecer essas regras, mas também dos acionistas, que devem decidir o que seria um sistema de alto risco em inteligência artificial”, opinou.
Questões éticas
A advogada Teki Akuetteh Falconer, da Africa Digital Rights’ Hub, do Gana, lembrou que há “lacunas e questões éticas” que precisam ser consideradas no desenvolvimento de uma regulação de IA. Ela defendeu a atuação conjunta de especialistas de várias áreas para que direitos individuais sejam assegurados. “Precisamos construir estruturas. É preciso trazer engenheiros e especialistas em privacidade e em direitos humanos. Precisamos compreender o ecossistema dentro de nossa jurisdição”, disse.
Eike Graf, representante da Comissão Europeia, sugeriu que a legislação aplicada sobre direitos fundamentais seja estendida à gestão de dados por meio de IA. Ele defendeu que os direitos que já existem para proteger os direitos fundamentais devem, obviamente, continuar a ser aplicados em outras instâncias. “Se já existem algumas regras, devemos trazer adendos a elas. Regras trabalhistas e leis do consumidor são relevantes para a utilização em sistemas de inteligência artificial”.
Com todo este material em mãos, a comissão de 18 juristas composta pelo Senado Federal terá até o mês de dezembro para elaborar uma proposta de projeto de lei que regule a Inteligência Artificial no Brasil. Diante da complexidade do tema, o relator, senador Eduardo Gomes (PL/TO), decidiu adiar este prazo – que estava marcado para agosto próximo.