A inteligência artificial oferece riscos à democracia, mas a regulação pode ser o passo fundamental para que a tecnologia tenha os limites necessários para garantir a liberdade. Durante o evento Reunião Magna da ABC Inteligência Artificial e as Ciências  – Oportunidades e Riscos, que acontece no Rio de Janeiro, Ricardo Fabrino, pesquisador e professor da UFMG, elencou os riscos da IA e o que pode ser feito para democratizá-la.

Riscos da IA

De acordo com o acadêmico, são esses os riscos à democracia que a IA oferece:

– indução de que a IA deslegitima a participação democrática.

“Algo que está bastante em voga é a ideia de que talvez democracias não deem conta de resolver problemas da magnitude que nós temos”, diz ao citar o cientista político Frank Fischer.

O autor afirma que, quando a sociedade se depara com problemas que colocam em risco a própria sobrevivência da humanidade, há o hábito de colocar a democracia na prateleira. “Foi isso que a gente fez na Segunda Guerra Mundial, por exemplo, e há vários cientistas que começam a defender que talvez processos democráticos não deem conta de endereçar a magnitude de problemas como a emergência climática com a celeridade necessária”, continuou. Com isso, as pessoas começam a colocar a própria ideia de democracia em questão. “E algoritmos utilizados pela inteligência artificial fazem isso também”, completou.

Entre os exemplos citados em sua fala, Fabrino lembra de robôs concorrendo ao cargo de Primeiro Ministro na Nova Zelândia, ou em municípios no Japão e no Líbano.

“Esses casos são anedóticos, mas o que a gente mais vê na gestão pública é uma crença de que talvez o movimento em direção à inteligência artificial nos liberte da política”, explicou.

O processo de erosão democrática que se vivencia atualmente não se resume à ascensão de lideranças autoritárias, mas envolve a própria deterioração da crença na democracia, disse Fabrino, e muitas vezes atravessa a crença em dispositivos tecnológicos.

– o segundo risco é o fortalecimento da geração de desigualdades.

Existe uma abundante literatura sobre vieses de gênero, raça e de pessoas com deficiência reproduzidos pela tecnologia. São dados alimentando a IA como a reprodução de um futuro que repete o passado de alguma maneira.

“Isso aparece muito claramente em dispositivos como policiamento preditivo, onde a coleta de dados e aonde esse dado foi coletado vão influenciar onde são enviadas as forças especiais e como são reproduzidas essas mesmas assimetrias presentes em determinadas regiões”, resumiu o professor da UFMG

– o terceiro risco é o comprometimento do debate sobre a democracia em tempos em que robôs produzem conteúdo. “Que democracia é essa em que grande parte do conteúdo produzido na Internet é feito por robôs? Com quem discutimos? Quais são os riscos e os perigos das deep fakes quando a gente pensa em processos eleitorais? Que debate público é esse que você não tem certeza de quem fala, quem se responsabiliza? Como isso é construído? E que horizonte é esse de possibilidade de discussão pública diante da prosperidade de disseminação massiva de desinformação?”, questionou.

A consequência desses questionamentos acabam por afetar também a legitimação das instituições. Um exemplo é do próprio sistema eleitoral. Passa-se a desconfiar em instituições essencialmente humanas.

Fabrino também enxerga a perfilização, ou seja, a construção de múltiplos perfis, em um risco para consumo de entretenimento, discussões políticas e, por sua vez, para a democracia. Essa fragmentação é responsável pela maneira como se consome entretenimento – música e vídeos, por exemplo – assim como a construção de um senso comum.

Por fim, o acadêmico da UFMG explicou que a liberdade também está em risco. Há implicações de vigilância, ao se espalharem câmeras de reconhecimento facial em todos os cantos, por exemplo, e outras formas de monitoramento biométrico que se prestam a controles cotidianos exercidos socialmente.

A regulação pode democratizar a IA

Fabrino enumerou riscos, mas também sugeriu que a IA pode ser democratizada. De acordo com ele e outros pesquisadores, a ideia é pensar o algoritmo da IA como instituições.

“Algoritmos podem ser pensados como instituições. E isso significa que, assim como outras instituições, algoritmos têm um papel de estabelecer balizas para comportamentos individuais, criando certos constrangimentos, induzindo certos tipos de comportamento com profundas implicações sociais e coletivas. E que, da mesma forma a gente pode pensar em instituições que historicamente foram opacas, não democráticas, autoritárias, faz sentido pensar a democratização de algoritmos que embasam modelos de inteligência artificial a partir da percepção da sua dimensão institucional”, explicou.

Neste contexto, instituições empoderam e constrangem, reduzem em flexibilidade e variabilidade, moldam ações ao avançar a lógica de comportamento apropriado, deslocam equilíbrios, estabelecem formas de autoridade. “E hoje se a gente olha para algoritmos que embasam modelos de Inteligência Artificial, eles têm feito tudo isso, criado munições e constrangimentos mudado equilíbrios se de alguma forma afetam comportamentos individuais, vão dando lógicas de ação, estabelecendo outras formas de construção de autoridade”

– a regulação e pensar nessas regras para além das fronteiras nacionais;

– a promoção da igualdade. Pensar a regulação da inteligência artificial deve passar em combater as desigualdades e as assimetrias;

– a promoção da pluralidade, combater bolhas, isolamento e desestruturação de um comum.

– accountability sobre resultados. “Como tornar responsáveis os atores que implementaram, ofertaram e proveram serviços baseados em IA? Como aplicar sanções a partir de consequências indesejadas da aplicação dessa tecnologia?”, questiona.

– proteção de liberdades fundamentais.

Foto: Ricardo Fabrino, professor associado do departamento de Ciência Política da UFMG. Crédito: Isabel Butcher/Mobile Time

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!