O avanço da inteligência artificial generativa reacende o debate acalorado sobre riscos e questões éticas no uso dos novos recursos que utilizam a tecnologia. Mas devemos encarar isso como uma grande oportunidade para melhoria completa do nosso sistema jurídico e de enforcement social.

Primeiro, não devemos pensar em escrever leis para IA da mesma forma que pensamos para os humanos. Pois os bots seguem as regras. Na verdade, no caso da inteligência artificial, como Lawrence Lessig disse nos idos dos anos 1990, basta programar a lei no código.

Sendo assim, por meio de uma determinação legal (seja por lei, código de conduta ou contrato), de forma normatizada, é possível estabelecer que todo bot venha de fábrica com uma linha de programação (script) configurada com o comando “dever de report” ou “dever de denúncia”. Além disso, os bots também deveriam ter no seu dataset de aprendizagem de máquina todas as leis aplicáveis nos países onde irão operar, bem como as normas relacionadas ao conjunto de atividades que forem executar.

Logo, se o bot for atender crianças, no conjunto do seu dataset precisa constar o Estatuto da Criança e do Adolescente (ECA); se for atender consumidores, o Código de Defesa do Consumidor (CDC); se for tratar dados pessoais, a Lei de Proteção de Dados Pessoais (LGPD), e assim vai. A diferença de um bot para um humano é que ele vai ler as leis, vai aplicar as regras, identificar nas condutas e interações o que está legal (segue a lei) e o que está ilegal (não segue a lei), e vai denunciar todos que não seguirem – inclusive ele próprio (autodenúncia).

Parece tão simples, por que ainda não fizemos? Porque ainda não entendemos o tamanho do salto que estamos dando com a humanidade na era dos robôs. Nos próximos 25 anos, segundo previsões relacionadas à 6ª Onda de Joseph Schumpeter, serão quebrados muitos paradigmas, inclusive a forma como legislamos, aplicamos as leis, fiscalizamos e punimos. E somente especialistas híbridos e multidisciplinares conseguem conectar todos esses pontos.

Até o problema atual que temos de responsabilização das plataformas será simplificado. Basta determinar que todo algoritmo e/ou bot que opere nas mídias sociais em território nacional, ou se relacione com usuários do Brasil, obrigatoriamente passe por um treinamento de machine learning com datasets das Leis Brasileiras, e a inserção do script de “dever de denúncia”. O mecanismo direciona esses conteúdos para Autoridades Brasileiras ou cumpre outro protocolo a ser definido pelo nosso Parlamento, com aplicação nas decisões do Judiciário.

O próprio ChatGPT se tivesse no seu dataset ou no Foundation Model as leis sobre Direitos Autorais (incluindo as Convenções Internacionais, como a de Berna), com certeza não estaria se comportando dessa maneira. Pois saberia que não é permitido elaborar uma resposta aos usuários a partir de conteúdos com origens distintas sem a devida citação de fonte e autoria. É um erro primário, quase inocente, mas que gera grandes riscos jurídicos. Portanto, uma IA bem treinada, da forma correta, com Lex-Datasets (leis, políticas da empresa, códigos de conduta, ISOs, melhores práticas) faz com que os riscos sejam reduzidos.

Ficamos em uma discussão sem fim sobre construção de níveis de risco da IA sem ir para o primeiro passo: ensinar à IA quais as regras do jogo. Com certeza isso permitiria à tecnologia identificar os comportamentos de risco, analisar os feedbacks e ajudar na melhoria da sua programação. Ou seja, nos ajudaria a escrever as “regras-comandos” que se aplicam a ela, baseados no framework legal atual, para depois nos ajudar a aplicar essas mesmas leis para os humanos.

Mas devemos nos questionar: os humanos querem isso? Será que o dono deseja que a IA saiba as regras do jogo? Ela ainda seria obediente ao seu comando se descobrisse que ele está sendo desonesto? Será que as Big Techs querem mesmo que seus algoritmos sejam ensinados sobre os comportamentos legais e ilegais? Que saibam identificar um suborno, uma sonegação, uma trapaça, um assédio ou uma fake news? Afinal, sempre tem alguém monetizando.

Exemplo: na cláusula do contrato está escrito que a empresa não deve contratar parceiros ou fornecedores que utilizem mão de obra infantil. Se essa informação constar no dataset de um bot que atua no local, ele vai ser capaz de identificar essas ocorrências e denunciar imediatamente a prática indevida. Doa a quem doer.

Bots seguem regras, não sofrem ameaças, não são calados e nem coagidos. Podem ser fiéis em proteger os humanos – inclusive dos próprios humanos –, mas também para cumprir nossos valores Democráticos e Constitucionais.

É interessante que com mais de 20 anos de atuação, essa diretriz continua sendo motivadora na minha carreira. Comecei no direito por conta de uma provocação feita pela minha professora de história, quando tinha 16 anos. Ela me perguntou por que eu gostava tanto de computação e eu respondi: “professora, as máquinas seguem as regras, os humanos não”.

E para entender esse vínculo entre leis, tecnologia, valores, comportamento, consequências e impacto social que fui estudar no Largo São Francisco, na Faculdade de Direito da Universidade de São Paulo, em 1994. E pelo mesmo motivo minha tese de Doutorado defendida em 2018 é sobre inteligência artificial, tema que me fascina e que venho estudando há mais de 10 anos.

Estamos finalmente chegando ao ponto de solucionar um problema muito antigo do Direito. Acredito que teria deixado diversos filósofos extremamente emocionados e satisfeitos, como Aristóteles, que usou o termo “ética” para definir o campo de estudo que busca oferecer uma resposta racional a como os humanos devem viver melhor. Onde os princípios éticos são determinados pelo caráter virtuoso de uma pessoa (“Ética a Nicômaco”), pois todos nós temos uma essência, uma natureza, uma finalidade.

Vamos conseguir programar a lei, as regras, os códigos de conduta e comportamento dentro dos humanos no dia que homem e máquina se unirem. Daí a relevância de ter essa aplicação nos bots o quanto antes, para que já nasçam com o “caráter robótico virtuoso”, ou melhor, com “a ética robótica”. É uma estratégia que vai nos ajudar a ensinar as próximas gerações, que passarão a ter tutores e professores bots.

Mesmo que a gente saiba fazer leis, nosso desafio está na Educação. De nada adianta escrever a melhor regulamentação, se não souber ensinar sobre as regras e as aplicações de conduta no dia a dia. E o resultado final é uma sociedade mais feliz. A tão sonhada felicidade que nós e os filósofos buscamos. E que os robôs vão nos ajudar nesta jornada rumo ao futuro.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!