O governador da Califórnia, Gavin Newsom (Democrata), vetou uma lei de inteligência artificial generativa na noite do último domingo, 29. Em nota publicada no seu site, o Newsom afirmou que embora bem-intencionado, o projeto de lei Senate Bill (SB) 1047 foi vetado por não levar em conta se um “sistema de IA é implementado em um ambiente de alto risco, se envolve uso de dados sensíveis ou tomada de decisão crítica”.

“No lugar (de endereçar essas questões), o texto aplica padrões rigorosos até mesmo às funções mais básicas”, escreveu o governador. “Não acredito que este seja o melhor modo para proteger o público de ameaças reais que são representadas por esta tecnologia”, completou.

Por sua vez, em carta enviada para devolver o texto ao Senado Estadual da Califórnia, Newsom alerta que o principal problema do SB 1047 é o foco em grandes modelos de linguagem (LLMs que sejam treinados por conjuntos de grande poder computacional com base de dados acima de US$ 100 milhões – algo que ainda não existe) e esquece dos modelos menores e especializados que têm bastante potencial de crescimento.

Disse ainda que concorda com o autor do projeto de lei, senador estadual Scott Wiener (Democrata), sobre a necessidade em ter protocolos de segurança para o uso da IA, mas acredita que “qualquer estrutura para regular a IA precisa de ritmo similar à adoção da tecnologia”.

O texto final da lei estadual foi aprovado pelo Senado Estadual da Califórnia por 30 votos a favor, 9 contra e uma abstenção em 29 de agosto. Focado em ser a primeira regulação para a IA generativa nos EUA, um estado que tem 32 das 50 principais empresas de inteligência artificial, a lei implementaria ainda:

  • A criação do Conselho de Modelos Fundamentais, um grupo do estado para analisar a implementação dos modelos de IA;
  • A criação da Agência de Operações Governamentais para desenvolver um cluster de computação em nuvem para o desenvolvimento da IA no estado, a CalCompute;
  • Implicação aos desenvolvedores para a contratação de auditor externo para verificar os padrões de IA dentro de uma empresa;
  • Adotar procedimentos de guardrails similares àqueles assinados pelos líderes da indústria de IA com a Casa Branca em 2023.

A decisão de Newsom foi bem vista por parte da indústria que não queria um projeto de lei sem todo o arcabouço de IA e que via o texto como um risco à inovação, como Andrew Ng, fundador da DeepLearningAI e um dos principais especialistas do tema. Em seu perfil no Linkedin, Ng afirmou que a legislação de IA precisa ser baseada em conhecimento, não em ficção-científica.