Na semana passada, Sam Altman, CEO da OpenAI, já havia declarado ao Senado americano defender a regulação de inteligência artificial (IA). Nesta segunda-feira, 22, ele e mais dois executivos da companhia criadora do ChatGPT – o cofundador e CTO Greg Brockman, além do cofundador e cientista chefe Ilya Stutskever – vieram a público esclarecer quais são os termos ideais para a governança a respeito da tecnologia, entre eles um limite anual para taxa de crescimento da capacidade do que chamam de “superinteligências”.
Eles reconhecem que, nos próximos dez anos, sistemas de IA vão exceder as habilidades de especialistas na maioria dos domínios de conhecimento. “A superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado”, preveem, em carta aberta, referindo-se às ferramentas de IA generativa que se popularizaram após o lançamento do chatbot da empresa.
Três medidas
A OpenAI sugere três pontos principais para a governança. Ela acha ser necessário algum grau de coordenação entre as principais iniciativas de desenvolvimento de sistemas de IA, para garantir que isso ocorra de uma maneira segura e ajude na integração suave dessas tecnologias com a sociedade. A sugestão é que seja criado um projeto do qual muitas dessas iniciativas atuais se tornem parte. Ou que os desenvolvedores concordem coletivamente na limitação da taxa de crescimento na capacidade de IA a um determinado valor por ano. “E, claro, as empresas individuais devem ser mantidas em um padrão extremamente alto de atuação responsável”, escrevem.
Em segundo lugar, os executivos sugerem a criação de uma instituição como a Agência Internacional de Energia Atômica (IAEA, da sigla em inglês), mas destinada ao controle de superinteligências. Qualquer iniciativa acima de um determinado limite de capacidade (ou recursos, como computação) precisaria estar sujeito à autoridade internacional, que iria inspecionar sistemas, realizar auditorias, testes de conformidade com padrões de segurança, além de impor restrições aos graus de implantação e níveis de segurança etc.
Para eles, essa futura agência deveria se concentrar na redução do risco existencial, deixando de lado questões a serem endereçadas individualmente por países, como definir o que uma IA pode ter permissão para dizer.
“Rastrear o uso de computação e energia pode ajudar bastante e nos dar alguma esperança de que essa ideia possa ser implementada. Como primeiro passo, as empresas poderiam concordar voluntariamente em começar a implementar elementos do que tal agência poderia um dia exigir e, como segundo, países individuais poderiam implementá-lo”, dizem.
Apesar de ser necessário colocar limites em superinteligências, eles acreditam ser importante permitir que empresas e projetos open source desenvolvam modelos abaixo de um limite de capacidade, sem estarem sujeitos à regulamentação descrita na carta. Isso os livraria de mecanismos que consideram onerosos, como licenças ou auditorias.
Em terceiro lugar, a OpenAI diz ainda ser necessária capacidade técnica para tornar uma superinteligência segura – uma questão que continua em aberto, sendo pesquisada no mundo inteiro, à qual a empresa também tem se dedicado.
Participação popular
Além de uma regulação nestes termos, eles acreditam que pessoas ao redor do mundo devem decidir democraticamente sobre os limites e os padrões dos sistemas de IA, defendendo que haja supervisão pública da governança dos sistemas mais poderosos, assim como sobre decisões relativas à sua implantação. Ainda assim, não sabem como criar esses mecanismos de participação popular, mas planejam experimentar o desenvolvimento. Eles pensam que usuários devem ter muito controle sobre como a IA que usam se comporta.
Motivos para desenvolver IA
“Dados os riscos e as dificuldades, vale a pena considerar por que estamos construindo essa tecnologia”, questiona a OpenAI, que tem dois motivos fundamentais para desenvolver superinteligências. Primeiro, entende que elas levarão a um mundo melhor, com impactos em áreas como educação, trabalho criativo e produtividade pessoal. “O crescimento econômico e o aumento da qualidade de vida serão surpreendentes”, justificam.
“Em segundo lugar, acreditamos que seria arriscado e difícil impedir a criação de superinteligência. Como as vantagens são enormes, o custo para construí-la diminui a cada ano, o número de atores que a constroem está aumentando rapidamente e é inerentemente parte do caminho tecnológico em que estamos, interrompê-lo exigiria algo como um regime de vigilância global e mesmo isso não é garantido que funcione. Então temos que acertar”, escrevem os executivos.