A União Europeia iniciou a implementação de sua Lei de Inteligência Artificial, o AI Act (Ato de IA, na tradução literal), nesta quinta-feira, 1. A expectativa é de que o Ato será totalmente aplicável em dois anos, com as seguintes exceções:
– em seis meses entram em vigor as proibições;
– em 12 meses se tornam aplicáveis as obrigações para modelos de IA de uso geral;
– em 36 meses serão aplicadas as regras para sistema de IA incorporados em produtos regulamentados.
Para facilitar a transição para o novo quadro regulatório, a Comissão lançou o Pacto de IA, uma iniciativa voluntária que busca apoiar a futura implementação e convida os desenvolvedores de IA da Europa e de outros lugares a cumprir as principais obrigações do Ato de IA antecipadamente.
Vale lembrar, o Parlamento da União Europeia aprovou o Ato de Inteligência Artificial em 13 de março de 2024, com 523 membros votando a favor de sua adoção, 46 votando contra e 49 se abstendo
Ato de IA baseada em níveis de riscos
A legislação adota uma abordagem baseada em risco, que categoriza os sistemas de IA a partir do nível percebido de risco e do impacto sobre os cidadãos. Ao todo, são quatro níveis de sistemas de IA.
O uso da IA considerado como alto risco é proibido nos seguintes casos:
- Sistemas de categorização biométrica que utilizam características sensíveis (por exemplo, crenças políticas, religiosas, filosóficas, orientação sexual, raça);
- Remoção não direcionada de imagens faciais da Internet ou de gravações de CCTV para criar bancos de dados de reconhecimento facial;
- Reconhecimento emocional no local de trabalho e em instituições educacionais;
- Pontuação social baseada no comportamento social ou características pessoais;
- Sistemas de IA que manipulam o comportamento humano para contornar a livre vontade;
- IA usada para explorar as vulnerabilidades das pessoas devido à idade, deficiência, situação social ou econômica.
Alto risco
Os sistemas de IA identificados como de alto risco incluem a tecnologia de IA usada em:
- Infraestruturas críticas que podem colocar em risco a vida e a saúde das pessoas;
- Educação ou treinamento profissional, que podem determinar o acesso à educação e ao curso profissional de alguém (por exemplo, pontuação de exames);
- Componentes de segurança de produtos (por exemplo, aplicação de IA em cirurgias assistidas por robôs);
- Emprego, gestão de trabalhadores e acesso ao autoemprego (por exemplo, software de triagem de currículos para procedimentos de recrutamento);
- Serviços privados e públicos essenciais (por exemplo, avaliação de crédito que nega aos cidadãos a oportunidade de obter empréstimo);
- Aplicação da lei que pode interferir nos direitos fundamentais das pessoas;
- Gestão de migração, asilo e controle de fronteiras;
- Administração da justiça e processos democráticos (por exemplo, soluções de IA para pesquisar decisões judiciais).
Riscos limitados
A lei determina uma IA de risco médio quando os riscos estão associados à falta de transparência no uso da inteligência artificial. O Ato de IA impõe obrigações específicas para estes casos de modo a garantir que as pessoas sejam informadas do uso da tecnologia. Entre os exemplos está a interação com chatbot. Neste caso, é preciso informar ao usuário que ele está interagindo com uma máquina.
Os fornecedores também devem garantir que o conteúdo gerado por IA seja identificável – que pode ser texto, imagem, áudio ou vídeo.
Risco mínimo ou inexistente
Aplicações como videogames com IA ou filtros de spam são considerados usos de IA de risco mínimo.