A União Europeia iniciou a implementação de sua Lei de Inteligência Artificial, o AI Act (Ato de IA, na tradução literal), nesta quinta-feira, 1. A expectativa é de que o Ato será totalmente aplicável em dois anos, com as seguintes exceções:

– em seis meses entram em vigor as proibições;

– em 12 meses se tornam aplicáveis as obrigações para modelos de IA de uso geral;

– em 36 meses serão aplicadas as regras para sistema de IA incorporados em produtos regulamentados.

Para facilitar a transição para o novo quadro regulatório, a Comissão lançou o Pacto de IA, uma iniciativa voluntária que busca apoiar a futura implementação e convida os desenvolvedores de IA da Europa e de outros lugares a cumprir as principais obrigações do Ato de IA antecipadamente.

Vale lembrar, o Parlamento da União Europeia aprovou o Ato de Inteligência Artificial em 13 de março de 2024, com 523 membros votando a favor de sua adoção, 46 votando contra e 49 se abstendo

Ato de IA baseada em níveis de riscos

A legislação adota uma abordagem baseada em risco, que categoriza os sistemas de IA a partir do nível percebido de risco e do impacto sobre os cidadãos. Ao todo, são quatro níveis de sistemas de IA.

O uso da IA considerado como alto risco é proibido nos seguintes casos:

  • Sistemas de categorização biométrica que utilizam características sensíveis (por exemplo, crenças políticas, religiosas, filosóficas, orientação sexual, raça);
  • Remoção não direcionada de imagens faciais da Internet ou de gravações de CCTV para criar bancos de dados de reconhecimento facial;
  • Reconhecimento emocional no local de trabalho e em instituições educacionais;
  • Pontuação social baseada no comportamento social ou características pessoais;
  • Sistemas de IA que manipulam o comportamento humano para contornar a livre vontade;
  • IA usada para explorar as vulnerabilidades das pessoas devido à idade, deficiência, situação social ou econômica.

Alto risco

Os sistemas de IA identificados como de alto risco incluem a tecnologia de IA usada em:

  • Infraestruturas críticas que podem colocar em risco a vida e a saúde das pessoas;
  • Educação ou treinamento profissional, que podem determinar o acesso à educação e ao curso profissional de alguém (por exemplo, pontuação de exames);
  • Componentes de segurança de produtos (por exemplo, aplicação de IA em cirurgias assistidas por robôs);
  • Emprego, gestão de trabalhadores e acesso ao autoemprego (por exemplo, software de triagem de currículos para procedimentos de recrutamento);
  • Serviços privados e públicos essenciais (por exemplo, avaliação de crédito que nega aos cidadãos a oportunidade de obter empréstimo);
  • Aplicação da lei que pode interferir nos direitos fundamentais das pessoas;
  • Gestão de migração, asilo e controle de fronteiras;
  • Administração da justiça e processos democráticos (por exemplo, soluções de IA para pesquisar decisões judiciais).

Riscos limitados

A lei determina uma IA de risco médio quando os riscos estão associados à falta de transparência no uso da inteligência artificial. O Ato de IA impõe obrigações específicas para estes casos de modo a garantir que as pessoas sejam informadas do uso da tecnologia. Entre os exemplos está a interação com chatbot. Neste caso, é preciso informar ao usuário que ele está interagindo com uma máquina.

Os fornecedores também devem garantir que o conteúdo gerado por IA seja identificável – que pode ser texto, imagem, áudio ou vídeo.

Risco mínimo ou inexistente

Aplicações como videogames com IA ou filtros de spam são considerados usos de IA de risco mínimo.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!