O racismo da inteligência artificial, ou racismo algoritmo, nada mais é do que a atualização do racismo estrutural. A relação entre o preconceito racial e a tecnologia não é de hoje, vem de longe, e a primeira tecnologia racista foi a eugenia – que é a ideia de cultivar os “bem nascidos” e eliminar aqueles que não são. Permitir que os mais belos, mais atléticos, saudáveis e brancos pudessem se reproduzir e ter o direito de viver. Seria a aceleração de uma suposta seleção natural, o Darwinismo social. Para a pesquisadora e professora da Universidade Federal do Rio de Janeiro Gracyelle Costa, muitas políticas sociais foram moduladas a partir de concepções eugenistas e continuam se reproduzindo, até chegar nas tecnologias como a da IA.
“A eugenia pressupõe classificação, padrões hierárquicos, uso da tecnologia e da ciência para promover o bem-estar de uns e eliminar de outros”, disse Costa durante sua participação no Rio Innovation Week, evento realizado no Pier Mauá do Rio de Janeiro, nesta quarta-feira, 4. O painel “A inteligência artificial e tecnologias do racismo” contou ainda com a participação de Renato Noguera, professor e pesquisador da Universidade Federal do Rio de Janeiro e do Laboratório de Estudos Afro-Brasileiros e Indígenas, e do mediador Vitor Matos, também da UFRJ.
A pesquisadora ressaltou que a IA está presente no direito e na segurança pública, “privilegiando leituras racistas” e reproduzindo o racismo do passado na tecnologia do presente e do futuro. Disse ainda que a IA está sendo usada no campo da genética para prover dados da morfologia do embrião e se traz possíveis doenças e deficiências de qualquer ordem, “o que pressupõe escolhas por parte dos envolvidos.”
“Esperávamos que a eugenia fosse extinta depois da segunda guerra mundial, mas ela continua viva e dando o tom para todas as tecnologias que acessamos. A IA não nasce para nos emancipar como sociedade, ao contrário. A IA nasce nesse contexto de que tecnologia e ciência são essenciais para a reprodução de mazelas. Não me levem a mal, adoro tecnologia e sei que a sociedade não viverá sem inteligência artificial”, disse.
Ao longo de sua fala, Costa questionou se a sociedade quer que as máquinas pensem como humanos e quais humanos seriam a base desse pensamento. “Difícil falar de inovação quando as tecnologias se baseiam no passado. São dados de um passado recente que continuam presentes entre nós, que se recriam”, completou.
Seu companheiro de painel, Renato Noguera, também refletiu sobre a humanidade das tecnologias, em especial da inteligência artificial. Explicou que o que chamamos de modernização vem da colonização – uma forma de opressão que passa por um processo de objetificação. A escravização é transformar corpos em ferramentas, ou seja, objetificar a pessoa. Hoje, Noguera estuda o contrário, a ‘sujeitificação’ dos objetos “e isso tem a ver com a inteligência artificial”.
O professor e pesquisador questionou o nome ‘inteligência artificial’ para a tecnologia, uma vez que inteligência é algo humano. “A ideia de inteligência deveria estar articulada a um sujeito. E esse sujeito tem vontades, desejos, vive. O sujeito não é somente uma máquina de pensar. A sociedade é uma rede de afetos e a máquina nunca terá vida. Em que medida a IA é uma tentativa de atribuir qualidades que são exclusivamente a seres orgânicos às máquinas?”, questionou.
Para Noguera, o projeto neoliberal, onde as pessoas são úteis na medida em que são capazes de produzir lucro, acentua o risco da “sujeitificação” das ferramentas. Enquanto as pessoas trabalham e trabalham, e precisam se tornar máquinas, perdem os outros espaços de vida. “À medida que isso ocorre, temos menos espaço para aquilo que nos torna humanos, que é compartilhar as coisas da vida”, explicou. E, por outro lado, as máquinas não são seres vivos, mas ganham contornos humanos, como “inteligência”.
“Talvez seja não-inteligência, ferramenta. E ganhar autonomia é da ordem dos organismos. Como atribuir isso a seres sintéticos? Inteligência artificial é um termo problemático. A inteligência é um tributo de seres humanos e colocar isso numa máquina pode criar uma distopia perigosa e colocar em risco a vida, que é o que nos interessa. A máquina pode não priorizar a vida porque ela desconhece isso”, completou.
Foto: Painel do Rio Innovation Week com Gracyelle Costa e Renato Noguera, professores da UFRJ e o mediador Vitor Matos, também professor da Universidade Federal do Rio de Janeiro (à dir). Foto: Isabel Butcher/Mobile Time.