Nos primeiros dias de 2025, a polícia de Hong Kong prendeu 31 indivíduos envolvidos em fraudes de investimentos por romance scam (golpe romântico), que resultaram em prejuízos de US$ 4,37 milhões para as vítimas.

Os golpistas utilizavam deepfakes criados com inteligência artificial (IA) para se passarem por mulheres e homens atraentes, com o intuito de atrair vítimas para falsos relacionamentos amorosos e, em seguida, convencê-las a realizar investimentos em plataformas fraudulentas.

No Brasil, em outubro de 2024, a Polícia Civil do Distrito Federal deflagrou a operação “DeGenerative AI”, com o objetivo de desarticular um esquema criminoso de invasão de contas bancárias, por meio de programas de inteligência artificial.

Os investigados teriam realizado centenas de tentativas de invasão a contas bancárias em bancos digitais, utilizando deepfakes para reproduzir a imagem dos correntistas e burlar os procedimentos de abertura de contas e habilitação de novos dispositivos.

Esses golpistas, que utilizaram sistemas de IA para cometer crimes, serão processados criminalmente conforme a legislação penal de Hong Kong e do Brasil, respectivamente. Mas e quanto àquele que desenvolveu o programa de inteligência artificial utilizado nessas ações criminosas? Essa pessoa também pode ser responsabilizada criminalmente?

A princípio, não. Partindo da premissa de que o sistema de IA utilizado é legítimo, a punição do desenvolvedor seria equivalente a responsabilizar o criador de um programa de edição de imagens (como o Photoshop, por exemplo) pela falsificação de um documento realizada por um usuário, o que seria inconcebível.

Por outro lado, no caso da invasão de contas bancárias, é possível que o desenvolvedor do sistema de IA seja responsabilizado criminalmente. Isso ocorre porque, no Brasil, o desenvolvimento de um programa de computador para possibilitar a prática de invasão de dispositivo informático é passível de punição com penas de uma a quatro anos de reclusão, além de multa (art. 154-A, §1º, do Código Penal).

De acordo com o art. 1º da Lei nº 9.609/1998 (Lei do Software), um programa de computador consiste em um conjunto organizado de instruções codificadas utilizado em dispositivos automáticos para fazê-los funcionar com fins determinados. Essa definição abrange os sistemas de IA, enquanto conjunto de instruções programadas para processamento de dados e execução de tarefas específicas.

Para a configuração do crime, no entanto, é necessário que o desenvolvedor tenha criado o programa com dolo (intenção) de possibilitar a invasão de dispositivos informáticos, o que levanta a seguinte questão: como comprovar se, de fato, houve a intenção do desenvolvedor?

As circunstâncias do caso serão cruciais para esclarecer, por exemplo, qual era o vínculo do desenvolvedor com os criminosos, se houve contratação específica para o desenvolvimento do programa, como essa contratação foi realizada e se havia clareza sobre a finalidade ilícita a que o programa seria destinado.

Ademais, o Projeto de Lei nº 2338/2023 – aprovado em dezembro de 2024 no Senado Federal e que seguirá para análise na Câmara dos Deputados – obriga os desenvolvedores a implementarem medidas de governança para coibir o uso ilícito dos sistemas de IA.

Estar em conformidade com a regulação será fundamental para que os desenvolvedores de boa-fé se resguardem contra a responsabilização penal decorrente de práticas criminosas envolvendo suas criações.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!