[BLOCK] IA: Quo Vadis?

Content Team há 2 anos
[BLOCK] IA: Quo Vadis?

O Dr. Stefano Filletti, chefe do Departamento de Direito Penal da Universidade de Malta, advogado e sócio-gerente sênior da Filletti & Filletti Advocates, conversou com Jeremy Micallef sobre como a reforma judicial deve ocorrer para atender ao futuro

Definindo IA

Inteligência Artificial é um termo difícil de definir e não existe uma definição universalmente aceita. A palavra “artificial” denota algo feito pelo homem. A palavra “inteligência” é mais abstrata e mais difícil de definir. Inteligência se refere à capacidade de se desenvolver e evoluir ao longo do tempo em um determinado ambiente. Seres inteligentes não apenas se adaptam ao seu ambiente, mas também “aprendem” a se tornar mais eficientes no que fazem.

Nas palavras do renomado físico britânico Stephen Hawkings, “inteligência é a capacidade de se adaptar às mudanças”. Esta definição denota a capacidade inata de qualquer ser inteligente de ser capaz de se adaptar às mudanças de circunstâncias ou ambientes. Essa capacidade de adaptação deve ser inata a ele.

Juntos, o termo “inteligência artificial” se refere a um objeto feito pelo homem capaz de se adaptar de forma autônoma à mudança, para se desenvolver e evoluir.

Seres inteligentes artificiais podem realmente ser qualquer coisa, desde robôs a armas, software em uma máquina e bots virtuais na Internet.

A Agência para Cometer Crimes
Dr. Stefano Filletti, chefe do Departamento de Direito Penal da Universidade de Malta

Se a inteligência artificial se refere à capacidade de mudar e se desenvolver de forma autônoma e independente, seria difícil prever o que a inteligência artificial é “aprendizado” e como está se adaptando. Em crianças, o processo de ‘aprendizagem’ inclui aprender com os erros, incluindo erros potencialmente perigosos. Da mesma forma, seres com inteligência artificial, ou sistemas de IA, “aprenderão” de maneira imprevisível.

Não pode haver dúvida de que qualquer ser inteligente, incluindo sistemas de IA, se adaptará de maneira diferente a diferentes situações. Da mesma forma, é impossível determinar certos resultados e consequências após um processo de adaptação.

Portanto, se não forem controlados, os sistemas de IA têm a potencialidade de cometer crimes. Por exemplo, os sistemas de IA deixados sem controle em serviços financeiros podem aprender rapidamente que cometer crimes financeiros pode gerar lucros maiores (embora ganhos ilegais), embora acredite que se tornou mais eficiente no que faz. Embora este exemplo possa ser facilmente combatido pela introdução de parâmetros para o sistema de IA exigindo que ele evite transações ilegais, a imprevisibilidade da adaptação significa que é humanamente impossível prever todas e quaisquer ações do sistema de IA. A inteligência artificial pode, portanto, na prática, cometer atos ou transações que seriam criminosos (se cometidos por humanos).

Inteligência ArtificialHumanos vs Inteligência Artificial: O Enigma do Direito Penal

A razão pela qual o direito penal existe é para punir aqueles que optaram por obter uma vantagem injusta em violação da lei em detrimento dos cumpridores da lei ou para punir aqueles que se envolvem em comportamentos que são legal e moralmente repreensíveis. O direito penal pressupõe que o sujeito do direito penal seja uma pessoa humana com capacidade moral para determinar o que é moralmente certo e moralmente errado. Também pressupõe que o sujeito do direito penal tenha a capacidade básica de compreender os seus atos e a capacidade volitiva para cometer ou abster-se de cometer esses atos. Finalmente, o direito penal tem como objetivo criar dissuasão: dissuadir as pessoas de se envolverem em comportamentos criminosos com medo de sanções ou punições.

O direito penal evoluiu ao longo do tempo, criando espaço para a personalidade jurídica das empresas. Daí o desenvolvimento do conceito de responsabilidade penal corporativa. Isso permitiu que o direito penal se estendesse aos negócios das empresas e à estrutura corporativa, ostensivamente para congelar e confiscar bens e produtos do crime que eram propriedade de empresas e não de pessoas físicas.

No entanto, a responsabilidade corporativa criminal tem um alcance limitado. Uma empresa não pode cometer todos os crimes pelos quais um ser humano pode ser considerado culpado. A responsabilidade penal corporativa é reservada aos crimes financeiros em geral.

Os sistemas de IA podem se envolver em atividades muito mais perigosas se não forem controlados. Ainda assim, a inteligência artificial e os sistemas de IA desafiam os fundamentos centrais do direito penal. A inteligência artificial não tem uma bússola moral inata e uma capacidade de certo e errado encontrada nos humanos. Não tem capacidades volitivas. A inteligência artificial não “teme” a punição e, portanto, a lei criminal não impede a inteligência artificial.

A questão é que o direito penal em seu estado atual não atende e, em geral, não pode atender aos crimes cometidos por seres com inteligência artificial. Só pode responsabilizar os humanos que os possuem ou os usam (de forma limitada) pelas ações que seus seres artificiais cometem.

Direitos e Responsabilidades

Seres artificialmente inteligentes podem cometer ações errôneas por uma infinidade de razões.

O primeiro pode ser um erro de programação ou fabricação. Um segundo cenário pode ser o usuário inserir um conjunto incorreto de instruções. Uma terceira pode ser que qualquer pessoa encarregada de supervisionar o sistema de IA, percebendo que algo está errado, deixa de tomar as medidas adequadas.

Um cenário mais difícil é aquele em que o ser artificial, sem solicitação humana e sem uma pessoa a seu cargo, se engaja autonomamente em um curso de ação imprevisível e imprevisível que leva a resultados criminosos ou trágicos. Embora raro, isso não é apenas uma possibilidade, mas já aconteceu. Embora esforços sejam feitos para reduzir o fator de imprevisibilidade, ele nunca pode ser excluído. A questão é como lidar com isso. Se for demonstrado que o fabricante e seu usuário realizaram todos os testes razoáveis e tomaram todas as precauções razoáveis, eles podem ser responsabilizados por um resultado imprevisível e imprevisível? Ainda mais quando vem de um sistema de IA que se adapta e se desenvolve por conta própria?

Quo Vadis? Para onde vamos daqui? O estado atual do direito penal não oferece uma solução. É claro que, com o avanço da inteligência artificial, esse problema precisa ser resolvido. Um novo regime jurídico precisa ser desenvolvido para atender ao ator não humano, mesmo no campo do direito penal.

A estrada à frente

A responsabilidade legal dos sistemas de IA é uma questão que tem sido assumida por muitos países e também é uma questão de debate jurídico a nível europeu, tanto a nível da UE como do Conselho da Europa. Duas correntes distintas entre responsabilidade civil e responsabilidade criminal são identificáveis. De uma perspectiva local, o tema também está sendo discutido ativamente com as autoridades locais ativamente envolvidas no debate. Só o tempo, entretanto, dirá se os sistemas de IA seriam adequadamente regulados pela legislação civil e criminal ou se este é um ideal ilusório com sistemas de IA superando a lei. 

 

A edição 5 da Revista Block foi publicada:

Block é uma publicação semestral que ilumina os setores de IA, blockchain, criptografia e tecnologia emergente, com 5000 cópias entregues a marcas líderes em toda a indústria global. Veja a edição mais recente da Block abaixo.

Share it :

Recommended for you
Lea Hogg
há 1 dia
Katy Micallef
há 1 dia
Júlia Moura
há 1 dia
Jenny Ortiz
há 1 dia