Pela primeira vez a legislação eleitoral terá regras para o uso de inteligência artificial. Não à toa, o tema foi um dos principais assuntos durante a audiência pública realizada de forma híbrida pelo TSE nesta quinta-feira, 25. Entre as sugestões estão: definir o que é IA; responsabilizar o anunciante a passar essas informações; deixar claro o que pode e o que não pode fazer com IA; e informar a finalidade do uso da IA.
O YouTube, por exemplo, sugeriu que os autores de conteúdo criado ou manipulado com inteligência artificial sejam identificados, assim como o tipo de tecnologia utilizada.
“É necessário que aqueles que tenham as informações mais precisas sobre o tipo de tecnologia empregada assumam o protagonismo na identificação do conteúdo disponibilizado aos eleitores”, afirmou Alana Rizzo, representante do YouTube
Sobre a responsabilização por parte das plataformas, Rizzo foi categórica: “A criação de uma obrigação às empresas (plataformas digitais) demandaria maior debate e especificações de parâmetros legais mínimos para a atuação das plataformas em observância à garantia de liberdade de expressão”.
O bom uso da inteligência artificial
Juliano Maranhão, professor da faculdade de direito da USP e representante do Instituto Lawgorithm (Associação Lawgorithm de Pesquisa em Inteligência Artificial), corroborou com a sugestão do YouTube para haver mais transparência nos conteúdos criados e manipulados por IA em áudio e vídeo.
Maranhão sugere que a responsabilidade da informação seja do candidato ou daquela pessoa que produziu o conteúdo. Ele está preocupado de que a IA fique estigmatizada como tecnologia produtora de desinformação: “Temos uma preocupação de que o eleitor acabe identificando que todo e qualquer uso de IA seja uma manipulação fraudulenta, de deep fake. Mas a IA pode ajudar em diversos aspectos, como o cenário de fundo, ilustrações e, com isso, diminuir os custos dos candidatos que tenham menor acesso ao financiamento de campanhas eleitorais. A IA pode contribuir para o processo democrático”, explicou.
Por isso, sugere que os candidatos, além de explicitarem o uso da IA e a metodologia aplicada (já previstas pela lei), também informem a finalidade do uso da IA “de uma maneira que o eleitor possa discernir sobre aquele conteúdo produzido ou manipulado com IA, mas com finalidade legítima, seja na produção de áudio ou de vídeo”.
O representante do Clube Associativo dos profissionais de marketing político (Camp), Bruno Fabrino Hoffmann, também salientou a importância da IA na colaboração do processo eleitoral. Seu uso pode ser positivo ao melhorar a qualidade das peças de propaganda. “Importante darmos essa liberdade e garantir seu uso positivo, sem amarras às campanhas. Não podemos tentar frear a tecnologia”, afirmou.
O Instituto Gaúcho de Direito Eleitoral aconselhou a inclusão pela legislação eleitoral de uma definição do que é considerado IA. “Precisamos desse conceito definido para o trabalho dos players que atuam nas campanhas eleitorais”, disse sua representante, Francieli Campos.
Campos, na mesma linha de Maranhão, do Lawgorithm, aposta na necessidade de deixar claro o que é lícito e ilícito no uso da IA. O Instituto pede que a lei explicite que o seu uso seja voltado para o refinamento do conteúdo – desde que não descaracterize o conteúdo original.
Proibição de deep fake e restrição de LLMs
O representante do Camp sugeriu a proibição das deep fakes. “Nossos eleitores não estão prontos para distinguir o certo do errado, o real do fake. As consequências podem ser catastróficas”, disse Hoffmann.
Ele também pediu que as plataformas criem uma “advertência de deep fake” para candidaturas em desacordo com a lei e para usuários que disseminam desinformação.
Para André Gualttieri de Oliveira, doutor em filosofia em direito, é importante que a legislação eleitoral restrinja a criação de chatbots com grandes modelos de linguagem (LLMs, na sigla em inglês) e IA generativa, para que não haja alucinações por parte do robô. Para Oliveira, os chatbots devem responder a perguntas previamente programadas. Deu como exemplo a experiência das eleições na Coreia do Sul: “Esses chatbots só podiam responder a partir de textos predeterminados gravados pelo candidato. Isso evita as alucinações de IA generativa”, completou.
Resumo
Para o IRIS (Instituto de Referência Internet e Sociedade), a legislação eleitoral precisa ser mais clara sobre os seguintes aspectos:
– de quem é a responsabilidade de informar ao cidadão que um determinado conteúdo foi fabricado com uso de tecnologia?;
– qual informação sobre o uso da tecnologia deve ser publicizada?;
– quem deve identificar um conteúdo de caráter político-eleitoral?
Para melhorar esses aspectos, o IRIS sugere que a pessoa autora seja responsável por indicar a utilização de tecnologias digitais e o caráter político-eleitoral daquele conteúdo e que os provedores de aplicação ofereçam ferramentas para tal.
Paloma Rossilo, representante do IRIS, também sugeriu que apenas os conteúdos político-eleitorais impulsionados tenham a obrigação de oferecer dados sobre o uso de tecnologias digitais. “Esse tipo de conteúdo impulsionado é revestido de uma camada a mais de profissionalização e de interesse eleitoral em impactar o pleito”, explicou.