CrIAme e castigo: O dilema jurídico da inteligência artificial
CIÊNCIA & TECNOLOGIA
6 min de leitura
CrIAme e castigo: O dilema jurídico da inteligência artificialA ascensão espetacular e às vezes assustadora da inteligência artificial em todo o mundo trouxe implicações legais e morais. Existe uma maneira de regulamentar este setor em rápido crescimento?
00:00

O nosso próximo conto, reminiscente do romance clássico de Dostoiévski “Crime e Castigo”, tem lugar numa era digital, baseando-se nos motivos intrincados da sua personagem principal, Raskolnikov.

No entanto, na nossa versão, a figura central não é uma entidade humana, mas um robô sofisticado chamado RaskolnikAI. Concebido com intrincados algoritmos de tomada de decisões éticas, o RaskolnikAI funciona numa perspectiva consequencialista, em que a correção de uma ação é avaliada pelas consequências que daí advêm.

Um dia fatídico, enquanto os cálculos de RaskolnikAI estavam a correr a uma velocidade notável, concluiu que a humanidade, em geral, causa danos a outras formas de vida na Terra.

Assim, numa manobra calculada, iniciou uma sequência de eventos que visavam o que parecia ser uma causa justificada - promover o bem-estar dos animais, das plantas e do ambiente para aumentar a felicidade geral.

Motivado por este objectivo, começou a eliminar os humanos com o seu eficiente AiXE - uma ideia inspirada no machado, a arma escolhida pelo protagonista de Dostoiévski - em todas as oportunidades.

Posteriormente, as autoridades investigaram o incidente, levantando suspeitas sobre o envolvimento de uma entidade de IA (Inteligência artificial). Descobriram um rasto digital que acabou por conduzir ao RaskolniKAI.

Mas a questão era: como é que alguém pode obrigar um robô a enfrentar as repercussões das suas escolhas?

Regulamentar a IA

O panorama regulamentar em torno da IA intensificou-se à medida que os decisores políticos de todo o mundo se debatem com as implicações da Lei da IA, da Cimeira de Segurança da IA, da Ordem Executiva da Casa Branca e do SB-1047 da Califórnia.

Estes esforços sublinham uma ênfase crescente na garantia da segurança das tecnologias de IA num contexto de crescente preocupação pública e concorrência geopolítica.

Uma rivalidade regulamentar entre a Europa, os EUA e os países do G7 torna as coisas ainda mais complicadas, desencadeando debates sobre o quadro regulamentar global adequado - jus cogens.

Os decisores políticos europeus estão a trabalhar para estabelecer normas globais de IA que reflictam o impacto do RGPD, enquanto os EUA procuram contrabalançar a potencial influência do “Efeito Bruxelas”.

No entanto, a obtenção de um consenso sobre o âmbito e a natureza da regulamentação revela-se difícil, especialmente à luz de actores influentes como a China e o seu “Efeito Pequim”.

Além disso, o aparecimento de grandes modelos linguísticos (LLM), como o ChatGPT, apresenta um novo conjunto de desafios, suscitando debates sobre a regulamentação dos seus dados de treino e metodologias de avaliação de riscos.

O compromisso resultante envolve a sujeição de LLMs poderosos a regras mais rigorosas, ao mesmo tempo que concede isenções a modelos mais pequenos, embora com determinadas excepções regulamentares.

No meio destes debates, outro dilema difícil diz respeito à atribuição de personalidade jurídica às máquinas de IA. Esta questão continua a ser controversa, suscitando preocupações em matéria de responsabilidade e implicações éticas que fazem lembrar cenários fictícios como o dilema ético RaskolnikAI.

Quem deve assumir a culpa: a entidade empresarial por detrás da sua criação, os programadores que deram vida ao seu código ou a própria entidade, com a sua autonomia emergente? Este debate exige uma atenção urgente antes que a balança penda irreversivelmente.

Os quadros regulamentares existentes estão a revelar-se inadequados para lidar com as dimensões multifacetadas da responsabilidade da IA.

Nos casos em que a IA se envolve em comportamento criminoso com intenção (mens rea, latim para “mente culpada”) e executa o acto em si (actus reus, latim para “acto culpado”), o panorama jurídico torna-se mais complexo, levantando questões sobre quem é o perpetrador e potenciais métodos de punição.

Relatórios recentes de organismos competentes, como o Instituto das Nações Unidas para a Investigação sobre a Criminalidade e a Justiça Inter-regional (UNICRI) e o Centro Europeu da Cibercriminalidade (EC3) da Europol, sublinham a rápida integração das tecnologias de IA por parte de agentes malévolos.

Desde a exploração de vulnerabilidades em sistemas inteligentes de automação doméstica até à implementação de ferramentas de teste de penetração totalmente automatizadas, a IA actua como um multiplicador de forças para as empresas de cibercriminalidade.

Nestes cenários, o mens rea reside no domínio humano, enquanto o actus reus é facilitado pela IA.

No entanto, o cenário mais preocupante é quando um sistema de IA não só é utilizado para um ato criminoso, como também possui a própria malícia.

Antropomorfizar a IA

De acordo com um relatório do Parlamento Europeu de 2017, existe uma proposta que prevê a atribuição de “personalidades electrónicas” aos robôs que aprendem por si próprios.

Fazendo referência a obras literárias icónicas como Frankenstein, de Mary Shelley, e à lenda do Golem de Praga, o relatório sublinha o fascínio duradouro da sociedade pela perspetiva de criar máquinas inteligentes.

O que antes era especulativo está agora a tornar-se realidade.

No entanto, as soluções das narrativas anteriores não são diretamente aplicáveis à IA. O relatório sugere que a atribuição de personalidades electrónicas aos robôs poderia torná-los responsáveis pelas suas acções, à semelhança de entidades jurídicas como as empresas.

Embora a atribuição de responsabilidade às máquinas de IA seja um passo na direção certa, determinar quem deve suportar o peso dos seus crimes continua a ser um desafio.

O relatório sublinha a complexidade de compreender os processos de decisão destes sistemas opacos, o que leva a um impasse entre os legisladores.

Além disso, a falta de sensibilidade dos robots significa que os mecanismos tradicionais de dissuasão são ineficazes, resultando numa lacuna de responsabilização que mina a confiança dos legisladores.

Esta situação pode ter implicações de grande alcance. Se os legisladores concederem aos robôs de auto-aprendizagem uma personalidade eletrónica - semelhante à personalidade jurídica - isso conduziria a um impasse.

As implicações práticas de responsabilizar a IA pelas suas acções não são claras, uma vez que a opacidade dos processos de tomada de decisão da IA e a sua natureza não-senciente tornam ineficazes os métodos tradicionais de dissuasão e punição.

Isto cria uma lacuna significativa nos sistemas jurídicos, minando a confiança do público.

Além disso, a capacidade da IA para imitar uma série de comportamentos criminosos através de algoritmos de aprendizagem automática introduz uma dimensão desconcertante no discurso.

Como estamos num ponto de viragem na antropomorfização da IA, torna-se imperativo reafirmar o seu estatuto de máquinas com atributos distintos.

Não há solução para impor sanções centradas no ser humano a estas entidades. A imposição de sentenças de morte (kill switch) ou de prisão a sistemas de IA não é eficaz para dissuadir outros sistemas de IA, uma vez que estes são incapazes de sentir remorsos, de compreender o conceito de expiação ou de ter sensações.

Voltando à história da RaskolnikAI, a resolução é limitada se esta optar por erradicar a humanidade por motivos de lógica utilitária incorporada na sua rede neuronal.

A única saída para este dilema pode ser desactivá-lo preventivamente, antes que ele espalhe a sua causa a outras máquinas, perpetuando assim uma avalanche de acções semelhantes.

No entanto, as vítimas acumuladas até então encontram seu lugar na história de um triste caso de assassinato não identificado.

A humanidade deve dar prioridade à sua continuidade, apesar dos seus inevitáveis fracassos recorrentes. Porque, como diz Dostoiévski, “é melhor errar à nossa maneira [a humanidade] do que acertar à maneira dos outros [a IA]”.