É preciso aprofundar os debates sobre o Projeto de Lei 2338, o PL que pretende ser o marco da inteligência artificial. Há pontos falhos, em especial no que tange a inovação. A fala é de Fabro Steibel, diretor executivo do ITS-Rio, que participou do CPDP Latam 2024, evento que aconteceu recentemente na FGV-Rio e promovido pelo seu departamento de Direito. Steibel argumenta que o desenho da lei está preocupado em enquadrar as big techs e acaba deixando de lado as demais empresas. Com isso, o temor é que a legislação acabe criando justamente o que ela não deseja, que seria um mundo só de grandes plataformas digitais.

“A gente está desenhando essa legislação pensando em big techs. Mas big tech não é gigante invisível, não é o pequeno empreendedor, não é startup. Quando a gente pensa em big techs a gente pensa em um mercado bastante específico e segmentado. A gente pode pensar em uma inovação responsável para Meta? Pode”, disse.

O diretor presidente do ITS-Rio argumentou que o texto não cria um arcabouço para as “small techs” ou “mid techs” – termos que ele cunhou para falar de pequenas e médias empresas de tecnologia – e até mesmo para as “gigantes invisíveis”, empresas que faturam mais de R$ 1 bilhão, mas que são desconhecidas da sociedade.

inteligência artificial; ITS-Rio

Fabro Steibel, diretor presidente do ITS-Rio. Foto: Isabel Butcher/Mobile Time

“O Projeto de Lei precisa de mais debate. E quando falo mais debate é importante criticar com muito carinho o PL 2338 porque ele criou isso aqui, essa comunidade de pessoas que estão juntas, debruçadas sobre o assunto, e o processo legislativo deve ser sobre isso. Mas, em inovação, o PL adotou um enquadramento muito pequeno”, disse Steibel.

Sem fomento à inovação: as críticas carinhosas

Steibel acredita que o “enquadramento” do PL 2338 acaba beneficiando as big techs no campo da inovação. “E quando a gente olha de uma forma mais ampla, a gente está atribuindo várias restrições que podem ser necessárias, mas não estamos fazendo quase nenhum fomento. Enquanto isso, a União Europeia optou por fazer mais de 20 leis. Muitas delas explicitamente sobre fomento e inovação. Eles botaram muito dinheiro”, comparou.

Assim, o Brasil avança no enquadramento de big techs, mas falta olhar para os outros tipos de empresas de modo que elas também tenham um framework para trabalhar em cima.

Steibel salientou que a academia é muito importante para fomentar a inovação, mas alertou que o PL 2338 “é muito preconceituoso com a academia”. “Se você aplicar nela as mesmas obrigações para a Meta, são 68 obrigações”, resumiu.

O presidente do ITS-Rio também reclamou que o texto explica o que é IA, mas não diz mais nada sobre o resto. “É muito importante a gente definir o que é inteligência artificial e quando algo deixa de ser”.

Deborah Siqueira de Oliveira, diretora global de proteção de dados e chefe de privacidade, propriedade intelectual e ética em IA do QuintoAndar, concorda que há um intenso debate sobre o Projeto de Lei acontecendo de modo a se avançar e encontrar uma legislação mais justa.

inteligência artificial; Quinto Andar

Deborah Siqueira de Oliveira, diretora global de proteção de dados e chefe de privacidade, propriedade intelectual e ética em IA do Quinto Andar. Foto: Isabel Butcher/Mobile Time

“Estamos no quarto substitutivo, já houve 145 emendas, então, as coisas estão acontecendo”, enumerou.

A crítica da executiva é que o PL continua intervencionista e complexo de se ler. Oliveira reclamou que a redação do texto é complicada até mesmo para especialistas como ela.

Outros pontos são a categorização por risco da IA e a legislação querer regular a tecnologia em si e não o seu uso.

“E a gente sabe que no dia-a-dia não é assim. Em 1990 a gente tinha um determinado uso de Internet e hoje a gente não sobrevive sem Internet. E eu acredito que com IA será a mesma coisa. Então, o quão custoso para as empresas seria fazer essa análise de risco para toda e qualquer tecnologia que seja implementada?”, questionou.

Oliveira também reforçou que existe uma preocupação nas discussões com a tecnologia em si, mas que seria importante discutir o uso da IA. “Essas análises de riscos deveriam ser executadas sobre o viés do uso”, afirmou.

Ou seja, a executiva gostaria de ver uma legislação mais principiológica “porque os princípios têm características de serem flexíveis e “conseguiriam acomodar a realidade”, que muda com frequência. “E que fosse tecnologicamente neutra para não ter uma legislação com data de validade”, resumiu.

Exemplo de impacto

O representante do ITS-Rio deu um exemplo de startup que poderia ser impactada negativamente pelo PL tal como está. Seria uma empresa que olha dados não estruturados, como exames realizados durante uma internação, e os estrutura para redigir o documento de tudo o que foi feito no paciente – documento este que é entregue na alta.

“Novamente, não existe dado pessoal neste sistema de IA. O que ela faz é organizar metadados de tipos de exames que são escritos com nomenclaturas diferentes, não é dado pessoal. Essas são small techs e mid techs. Temos que pensar nelas, sem esquecer das big techs, mas pensar só nas grandes deixa a gente desprotegido de realmente fomentar a economia”, resumiu.

Sugestões para encontrar o equilíbrio

Para tentar equilibrar o jogo e fomentar a inovação, Steibel recomendou que o compartilhamento de dados do governo fosse obrigatório. “De forma responsável, com supervisão, principalmente com relação aos dados pessoais”, complementou.

Outro ponto seria referente ao sandbox. Para ele, a experimentação deveria ser um dever do estado por ser um remédio para combater a concentração de mercado.

“Em dois momentos do PL aparece que se você participa do sandbox você é responsável. O texto europeu diz: você é responsável desde que você não tenha feito tudo o que o estado mandou. E fazer isso significa que o interesse público vem antes do seu interesse comercial. É por isso que a gente faz sandbox”, resumiu.

Steibel afirma que o Brasil não terá segurança cibernética eficiente para inteligência artificial se a diversidade desse ecossistema não for fomentada. “A gente não terá IA em segurança cibernética se a gente não fomentar a IA aberta. Bancos, criptografia, é tudo aberto e por isso funciona muito bem”, comentou.

Fomento à inovação e proteção devem caminhar juntos ou “colocaremos um remédio amargo e que daqui a cinco anos o cenário será o inverso daquilo que todo o mundo quer: só haverá big techs. Se a gente quer um ecossistema saudável, a gente precisa fomentar de verdade a inovação”, alertou.