Ao ser empregada em decisões judiciais, a inteligência artificial (IA) tem levantado debates sobre ética e precisão, especialmente após um software de sentença ser questionado publicamente por potenciais vieses. Esse caso ilustra a importância crítica de regulamentar a IA, uma tecnologia que, embora pareça moderna, tem raízes que se estendem muito além da era digital contemporânea.

Remontando à Segunda Guerra Mundial, as fundações da IA foram construídas durante décadas de pesquisa e desenvolvimento, desafiando a percepção comum de que ela é um fenômeno exclusivamente ligado à evolução dos computadores na década de 1980. Pelo contrário, a história é antiga.

Em pleno século XXI, a inteligência artificial se transformou em uma presença constante no nosso cotidiano, muitas vezes de maneira tão simples e imperceptível. Assistentes pessoais, como a Siri da Apple, a Alexa da Amazon e o Google Assistente, são exemplos claros dessa integração no nosso dia a dia. Essas tecnologias não apenas facilitam tarefas diárias, como também são projetadas para aprender continuamente com as nossas interações.

Esses sistemas de IA absorvem informações humanas, aprendem a cada atualização diária, formam um raciocínio e têm uma comunicação mais assertiva com as pessoas. As suas capacidades de adaptação são a base para sistemas de IA mais avançados, que não apenas processam dados, mas também geram novos e tomam decisões, como a IA generativa.

Entretanto, com o avanço dessas tecnologias, têm surgido a necessidade de regulamentação da IA, uma vez que ela pode ser usada para diversos fins, positivos e negativos, como influenciar resultados de eleições e o processo democrático de um país. Alguns dados comprovam isso, como uma recente pesquisa do PwC, onde é afirmado que a segurança cibernética continua sendo uma das principais preocupações, sendo que cerca de 77% das empresas concordam que a IA generativa provavelmente vai intensificar as preocupações com a segurança cibernética.

Já o relatório Artificial Intelligence – in-depth Market Insights, publicado pelo site de inteligência de dados Statista, diz que até 2025 a receita do mercado de softwares de inteligência artificial deve crescer 35% ao ano, quando deve atingir o valor de US$ 126 bilhões. Com isso em mente, empresas e governos começam a corrida para criar leis que monitorem a forma que a IA está sendo utilizada a fim de que essa seja o mais justa e ética possível.

Nesse cenário, quem deu a largada foi a Europa. No segundo semestre deste ano, uma lei de regulamentação sobre o uso da IA entra em vigor na União Europeia (UE), sendo esse o primeiro conjunto de regras do tipo. A expectativa é que essas normas virem referência para todo o planeta nos próximos anos, uma vez que a tecnologia tem se desenvolvido cada dia mais. Com o avanço da IA em diversos setores, a UE estabeleceu algumas práticas que garantem o seu uso seguro e ético com enfoque em transparência, precisão e responsabilidade.

Algumas aplicações estão sendo proibidas por serem consideradas de alto risco, como sistemas de classificação que controlam o comportamento das pessoas. Outras práticas restritas incluem formas de policiamento preditivo, pois são muitas vezes questionáveis em termos de ética e precisão. Além disso, sistemas de reconhecimento de expressões e emoções em escolas e locais de trabalho estão sendo limitados, devido a preocupações relacionadas à privacidade e à intrusão indevida na vida privada das pessoas.

Aqui, no Brasil, existe um Projeto de Lei, que é conhecido como Marco Legal da IA que possui o objetivo de regular e estruturar o uso da inteligência artificial em diversas esferas da sociedade, garantindo a segurança, a transparência e a equidade. Acredito que ele é um passo crucial para adaptar as práticas brasileiras aos padrões globais e garantir que o uso legal da IA no país seja realizado de forma responsável tanto pelas empresas quanto pelos órgãos públicos.

Com a sua aprovação pelas devidas instâncias competentes, casos como as recentes propagações de deep fakes, ou seja, vídeos manipulados por IA, que aconteceram nos Estados Unidos, na Argentina e no Pasquistão, devem se tornar menos comuns e terem as punições necessárias. Essas imagens falsas impactam diretamente na forma como enxergamos o mundo, pois nos mostram, muitas vezes, realidades diferentes e distorcidas. Por meio delas, podemos acreditar até mesmo na existência de um candidato político, que, na verdade, foi criado apenas virtualmente por meio de vídeos e fotos.

Em suma, a inteligência artificial (IA) evoluiu muito com os anos. Regulamentações como as implementadas pela União Europeia e o Marco Legal da IA no Brasil, que está em andamento, além de outras iniciativas globais, são essenciais para assegurar um uso responsável e ético da IA. Elas são cruciais para mitigar o potencial de abusos tecnológicos, como a criação de deep fakes e o seu papel em eleições – somente neste ano, teremos as brasileiras para prefeitos e vereadores e as norte-americanas para presidente. Esses conteúdos manipulados podem distorcer a realidade, enganar o público e até influenciar processos democráticos, mostrando a potencial gravidade do mau uso da IA.

Portanto, precisamos ficar de olho, porque todos nós seremos impactados. O debate não deve ser apenas do poder público; pelo contrário, ele deve fazer parte das nossas conversas diárias, uma vez que a decisão é coletiva. A eventual aprovação do Marco Legal de IA no Brasil vai impactar desde a forma como utilizamos a Internet até a forma como o nosso software preferido é feito, então devemos ser ativos nesta jornada pelo bom uso da nossa tecnologia.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!