MABEL CRISTINA SANTOS GUIMARÃES, pós graduada em Direito Administrativo pela Universidade Federal de Pernambuco e em Direito e Inovação pela PUC - MG, Especialista em Business Analytics e Ciência de Dados - Universidade Católica de Pernambuco, Certificação em Machine Learning pela Data Science Academy, Em Legal Design ela BITS ACADEMY e Visual Law Journey pela New Law, advogada, Membro da Comissão de Legal Design pela OAB/PE e sócia do Urbano Vitalino Advogados. Machine Learning
Colunistas Recentes

IA e crimes: desafios para a identificação do responsável

Quando uma inteligência artificial (IA) é usada para cometer um crime, quem deve ser responsabilizado? O programador, o proprietário ​​ou a própria IA? A resposta a essa pergunta ainda não é clara e pode variar dependendo do contexto do crime.

Com o avanço da tecnologia, a IA está se tornando cada vez mais presente em nosso cotidiano. Embora tenha trazido muitos benefícios, ela também tem arquiteturas jurídicas ainda não totalmente compreendidas, especialmente quando se trata da execução de crimes.

Um dos principais desafios jurídicos que a IA apresenta é a dificuldade em atribuir responsabilidade criminal a um programa de computador. A maioria dos sistemas são projetados para aprender e se adaptados com base em dados de entrada, o que significa que eles podem se comportar de maneira imprevisível e agir de maneiras que não foram intencionalmente programadas. Em casos em que um crime é cometido por um programa de IA, pode ser difícil determinar quem é o responsável pelo ato.

Invasão de sistemas de computadores ou realizar ataques cibernéticos, são alguns exemplos de crimes passíveis de serem realizados. Além disso, também pode ser usado para imitar seres humanos, como em fraudes bancárias ou na disseminação de informações falsas em redes sociais.

Em alguns casos, o programador ​​pode ser responsabilizado pelo crime cometido pela IA. Isso ocorre quando ele tem intenção de cometer um crime ou quando ele negligencia os riscos associados à programação da IA. No entanto, isso não é suficiente para responsabilizar o programador em todos os casos.

Em outras situações, o proprietário da IA ​​pode ser responsabilizado pelo crime cometido. Isso também pode ocorrer quando ele nega os riscos associados à utilização do IA. No entanto, novamente, isso não é suficiente para responsabilizar o proprietário em todos os casos.

Outra opção é responsabilizar o IA pelo crime cometido. No entanto, isso levanta questões éticas e jurídicas importantes, já que a IA é uma entidade artificial que não possui consciência ou intenção. Há ainda a dificuldade para tomar decisões em processos judiciais, como avaliar evidências ou determinar sentenças.

A identificação do responsável pelo uso da IA ​​em um crime é um desafio que exige uma resposta urgente da legislação. É preciso estabelecer critérios claros que possam diferenciar as ações realizadas pela IA de acordo com um ser humano, além de definir a responsabilidade pelo uso indevido da IA ​​e regulamentar a responsabilidade civil em casos envolvendo a IA. A solução desses desafios será fundamental para garantir a justiça e proteger os direitos fundamentais dos cidadãos.

Mabel Guimaraes
MABEL CRISTINA SANTOS GUIMARÃES, pós graduada em Direito Administrativo pela Universidade Federal de Pernambuco (UFPE) e em Direito e Inovação pela PUC - MG,. Especialista em Business Analytics e Ciência de Dados pela Universidade Católica de Pernambuco (UNICAP). Certificação em Machine Learning pela Data Science Academy, em Legal Design pela Bits Academy e Visual Law Journey pela New Law. Advogada, Membro da Comissão de Legal Design da OAB/PE e sócia do Urbano Vitalino Advogados.

Deixe um comentário