A Administração Nacional de Telecomunicações e Informação (NTIA) do Departamento do Comércio dos EUA lançou nesta terça-feira, 11, uma consulta pública para regular e garantir que os algoritmos de inteligência artificial funcionem sem danos à população. Batizado como Solicitação de Comentário de Responsabilidade da IA, o chamamento busca entender:
- Quais os tipos de testes de normas e segurança devem ter as empresas que desenvolvem IAs e qual deve ser a conduta de seus clientes;
- Os tipos de dados são necessários para ter auditorias e avaliações;
- Como os reguladores podem incentivar e apoiar a garantia confiável de sistema de IA;
- E quais as abordagens para diferentes setores.
De acordo com o órgão, a ideia é juntar as contribuições para garantir uma abordagem coesa e abrangente do governo norte-americano aos riscos e oportunidades relacionadas à IA, ou seja, rumo ao desenvolvimento de inteligências artificiais mais responsáveis (responsible AI, no original em inglês).
“O desenvolvimento de sistemas de inteligências artificiais responsáveis podem trazer um enorme benefício, mas apenas se cuidarmos de seus danos e consequências em potencial. Para que esses sistemas atinjam seu potencial por completo, as companhias e os consumidores precisarão ter sua total confiança”, disse Alan Davidson, secretário assistente de comércio para comunicação e informação e administrador da NTIA.
Cronograma
Os interessados têm até 10 de junho para contribuir com a consulta pública. Os resultados serão divulgados neste site. De acordo com o regulador, o pedido está alinhado com o posicionamento do presidente norte-americano, Joe Biden, que busca apoiar a inovação e garantir os direitos e as seguranças dos seus cidadãos em IA.
Como base para as discussões, a NTIA lembra que há o Guia de Risco de IA do Instituto Nacional de Padrões e Tecnologia (NIST) e o esboço da Declaração de Direitos em Inteligência Artificial feita pelo Escritório de Ciência e Tecnologia da Casa Branca.
“A nossa consulta vai informar as políticas que podem apoiar a auditoria, a avaliação de riscos e seguranças, as garantias e outras ferramentas que podem trazer essa confiança para os sistemas de inteligência artificial”, complementou Davidson.
Vale dizer, o documento de convocação da NTIA cita apenas a o ChatGPT, da OpenAI, em um dos questionamentos que pretende analisar:
“Dada a provável integração de ferramentas de IA generativas, como grandes modelos de linguagem (por exemplo, ChatGPT) ou outra IA de uso geral ou modelos fundamentais em produtos downstream, como os mecanismos de responsabilidade da IA podem informar as pessoas sobre como essas ferramentas estão operando e/ou se as ferramentas estão em conformidade com os padrões de IA confiável?”, diz trecho do documento.
Entenda
O chamamento do governo norte-americano surge na esteira do avanço de soluções de inteligência artificial generativa na virada de 2022 para 2023, em especial o ChatGPT, da OpenAI. A solução tem avançado rapidamente com uma atividade mais proativa no desenvolvimento de conteúdos e imagens baseadas em inteligência artificial.
A solução ganhou destaque na mídia e nas mesas de trabalhos, com várias empresas adotando desde o começo do ano as tecnologias da OpenAI em suas aplicações. A empresa que mais tem apostado na IA generativa da OpenAI é a Microsoft, inclusive com um investimento bilionário na startup. O aporte fez outras companhias rivais acelerarem o desenvolvimento de suas próprias soluções de IA generativa, como o Bard, do Google, que viu um risco para o seu negócio de motor de busca, aplicações de produtividade e publicidade, pois a Microsoft incorporou o ChatGPT em apps como o buscador Bing, a suíte Office e a nuvem Azure.
As preocupações com o avanço do discurso do ódio, automação de tarefas humanas para IA e os possíveis efeitos na educação resultaram em uma carta aberta assinada por líderes da tecnologia, como Yuval Harari, Elon Musk e Steve Wozniak, que pedem uma pausa de seis meses no desenvolvimento da IA generativa. Nesta terça-feira, o documento somava mais de 21,5 mil assinaturas.
Além disso, os reguladores e as entidades da sociedade também demonstraram preocupação com IA generativa no final de março. Nos EUA, o Centro de Inteligência Artificial e Política Digital (CAIDP) apresentou uma queixa formal contra a IA generativa da OpenAI junto ao FTC, pois entende que o modelo de linguagem é tendencioso e enganoso e traz riscos à privacidade dos consumidores.
A medida mais dura contra a OpenAI foi tomada pelo governo italiano. No dia 31 de março, o regulador local suspendeu temporariamente o ChatGPT de atuar em seu território, após um vazamento de dados dos usuários dez dias antes.
Após a carta e questionamentos da sociedade civil e reguladores, a OpenAI publicou um comunicado defendendo suas pesquisas e a evolução da IA generativa, em especial do ChatGPT.