Responsabilidade criminal em casos de IA: os desenvolvedores podem ser punidos?

Responsabilidade criminal IA: desenvolvedores podem ser punidos? Descubra se criadores de IA são responsabilizados por crimes cometidos com suas ferramentas. Saiba mais!
Atualizado há 25 segundos
Responsabilidade criminal IA

Outros destaques

ChatGPT para tarefas rápidas
Novo método de invasão de rede
ChatGPT sem login
Notícias de tecnologia do dia
GPT-4o Mini Audio models

Nos primeiros dias de 2025, Hong Kong testemunhou a prisão de 31 pessoas envolvidas em golpes de investimento facilitados por romance scams, resultando em perdas de US$ 4,37 milhões para as vítimas. Esses golpistas usaram deepfakes criados com inteligência artificial (IA) para atrair vítimas em relacionamentos amorosos falsos e, em seguida, convencê-las a investir em plataformas fraudulentas. No Brasil, a polícia também tem atuado para desmantelar esquemas criminosos que utilizam IA para invadir contas bancárias. Mas como fica a Responsabilidade criminal IA nesses casos?

CONTINUA DEPOIS DA PUBLICIDADE

A seguir, vamos explorar as nuances da Responsabilidade criminal IA, analisando se os desenvolvedores de sistemas de IA podem ser responsabilizados por crimes cometidos com suas ferramentas.

Ações Criminosas Facilitadas por IA

Em Hong Kong, criminosos utilizaram deepfakes de IA para personificar indivíduos atraentes, criando perfis falsos para atrair vítimas em golpes românticos. Uma vez estabelecido o contato, as vítimas eram persuadidas a investir em plataformas financeiras fraudulentas, resultando em prejuízos milionários.

No Brasil, a Polícia Civil do Distrito Federal deflagrou a operação “DeGenerative AI” em outubro de 2024. O objetivo era desmantelar um esquema de invasão de contas bancárias por meio de programas de inteligência artificial. Os criminosos usavam deepfakes para replicar a imagem dos correntistas, burlando os sistemas de segurança de bancos digitais para abrir contas e habilitar novos dispositivos.

Esses casos levantam questões importantes sobre a Responsabilidade criminal IA e o papel dos desenvolvedores de sistemas de IA em atividades ilícitas.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

A Punição para Desenvolvedores de IA

A questão central é: quem deve ser responsabilizado quando sistemas de IA são usados para cometer crimes? Os criminosos que utilizam a IA para fraudes e invasões certamente serão processados conforme a lei. Mas e o desenvolvedor do programa de inteligência artificial? Ele também pode ser responsabilizado criminalmente?

A princípio, a resposta é não. Se o sistema de IA utilizado for legítimo, punir o desenvolvedor seria como responsabilizar o criador de um programa de edição de imagens como o Photoshop pela falsificação de documentos. Seria algo completamente fora de questão. No entanto, essa não é uma resposta definitiva.

Exceção à Regra: Programas Criados para o Crime

No caso específico de invasão de contas bancárias, a situação pode ser diferente. No Brasil, o desenvolvimento de um programa de computador com o objetivo de facilitar a invasão de dispositivos informáticos é crime. A pena para esse delito varia de um a quatro anos de reclusão, além de multa, conforme o Art. 154-A, §1º, do Código Penal. É crucial entender que essa lei se aplica quando o programa é criado especificamente para fins ilícitos.

De acordo com o Art. 1º da Lei nº 9.609/1998 (Lei do Software), um programa de computador é um conjunto de instruções codificadas usadas em dispositivos automáticos para fazê-los funcionar com fins determinados. Essa definição inclui os sistemas de IA, que são conjuntos de instruções programadas para processamento de dados e execução de tarefas específicas.

Para que o desenvolvedor seja criminalmente responsabilizado, é necessário comprovar que ele criou o programa com a intenção (dolo) de possibilitar a invasão de dispositivos informáticos. E aqui surge a grande questão: como provar essa intenção?

CONTINUA DEPOIS DA PUBLICIDADE

Como Comprovar a Intenção do Desenvolvedor?

Para determinar a Responsabilidade criminal IA do desenvolvedor, as circunstâncias do caso são cruciais. É preciso investigar qual era o vínculo do desenvolvedor com os criminosos, se houve contratação específica para o desenvolvimento do programa, como essa contratação foi realizada e se havia clareza sobre a finalidade ilícita do programa.

Além disso, é importante considerar o Projeto de Lei nº 2338/2023, aprovado no Senado Federal em dezembro de 2024, que será analisado pela Câmara dos Deputados. Este projeto obriga os desenvolvedores a implementarem medidas de governança para coibir o uso ilícito dos sistemas de IA. Essa conformidade com a regulamentação será fundamental para que os desenvolvedores de boa-fé se protejam contra a responsabilização penal decorrente de práticas criminosas envolvendo suas criações.

A Importância da Conformidade Regulatória

Estar em conformidade com as regulamentações não apenas protege os desenvolvedores de acusações criminais, mas também promove um ambiente de desenvolvimento de IA mais ético e responsável. Ao adotar medidas de governança e segurança, os desenvolvedores demonstram seu compromisso com a prevenção do uso indevido de suas tecnologias.

Em um mundo onde a inteligência artificial se torna cada vez mais presente, é fundamental que haja um equilíbrio entre inovação e Responsabilidade criminal IA. Os desenvolvedores têm um papel crucial na criação de sistemas que beneficiem a sociedade, minimizando os riscos de uso malicioso. Ferramentas tecnológicas desempenham um papel crucial no combate à fraude digital, e é responsabilidade dos criadores garantir que suas invenções não sejam usadas para fins nefastos.

O Futuro da Responsabilidade na Era da IA

O debate sobre a Responsabilidade criminal IA está longe de ser concluído. À medida que a tecnologia evolui, as leis e regulamentações precisarão acompanhar o ritmo para garantir que a IA seja usada de forma ética e responsável. A colaboração entre legisladores, desenvolvedores e especialistas em ética será essencial para criar um marco legal que proteja a sociedade sem sufocar a inovação.

Além disso, é fundamental que os usuários de sistemas de IA estejam cientes dos riscos e responsabilidades associados ao uso dessas tecnologias. A educação e a conscientização são ferramentas poderosas para prevenir o uso indevido da IA e garantir que ela seja utilizada para o bem comum. Afinal, o futuro da inteligência artificial depende da nossa capacidade de equilibrar o poder da tecnologia com a responsabilidade humana.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

Via Mobile Time

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.