O enigma da Inteligência Artificial: de “devemos regulamentar” a “como devemos regulamentar"
A União Europeia tem liderado o mundo na elaboração de uma estrutura legal para regulamentar uma das inovações tecnológicas mais interessantes, que também traz implicações morais e éticas para a humanidade.
Embora comparemos geralmente a era dos megadados e da Inteligência Artificial (IA) com a revolução da máquina a vapor, as descobertas geográficas podem também servir de referência a este respeito.
Embora tenham levado a humanidade a criar novas estruturas comerciais, económicas e políticas, estas descobertas não conseguiram, no entanto, criar oportunidades iguais para todos.
Mesmo na escrita da história, há uma falta de empatia no termo “descoberta” da América. As civilizações já viviam na América antes de 1493.
Esta compreensão unilateral da história precisa de mais empatia e é uma abordagem inadequada e perigosa para educar as crianças do futuro.
Actualmente, para que os sistemas de IA possam ajudar os seres humanos a aprender os mistérios do universo, melhorar a agricultura para garantir que todos tenham acesso a alimentos e desenvolver serviços de saúde preventivos, precisamos de ser capazes de alcançar o que nós, enquanto humanidade, nunca fomos capazes de alcançar antes: um desenvolvimento tecnológico justo.
Para isso, precisamos de hardware legal com ética incorporada.
É por isso que é essencial que o desenvolvimento e a utilização de sistemas de IA, que são muito mais abrangentes e práticos do que outras tecnologias, sejam regulados por lei.
Para o efeito, foi alcançado na União Europeia, em Dezembro de 2023, um acordo provisório sobre a regulamentação mais abrangente do desenvolvimento e da utilização da IA no mundo.
Mas, voltemos à história da odisseia regulamentar da IA.
No final da década de 2010, legisladores, profissionais do direito e académicos que trabalham nas áreas do direito, engenheiros e cientistas sociais envolvidos no domínio da IA tinham uma questão em mente: O que é que deve ser feito?
As respostas a esta pergunta transformaram-se em quadros éticos sobre a IA, a maioria dos quais foi publicada por muitas instituições em todo o mundo no final da década de 2010.
Alguns destes quadros éticos sobre a IA, como as Orientações Éticas da União Europeia para uma Inteligência Artificial Fiável (2019), constituíram a base dos regulamentos futuros.
Durante a mesma década, as estratégias nacionais de IA, incluindo a análise SWOT (uma técnica gestão estratégica usada para identificar forças, oportunidades, fraquezas e ameaças de um projecto ou negócio específico), foram também lançadas por muitos países em todo o mundo.
Uma das mais abrangentes destas estratégias, o primeiro Relatório Nacional de Estratégia de IA da Türkiye, foi publicado em 2021 pelo Ministério da Indústria e Tecnologia e pelo Gabinete de Transformação Digital da Presidência da Türkiye, cujo trabalho apoia o roteiro digital do país.
O ano de 2021 foi também crucial para a estratégia de IA da União Europeia, uma vez que o grupo de 27 membros decidiu formar um quadro regulamentar comum.
À luz das suas orientações éticas sobre a IA de 2019, a Comissão Europeia propôs um regulamento sobre os sistemas de IA em 2021, que está quase na sua forma final.
Prevê-se que seja publicado no Jornal Oficial da União Europeia antes do final de 2024.
Caminhos pedregosos
No entanto, a viagem tem sido árdua e, por vezes, os caminhos são pedregosos.
Em Novembro de 2023, pouco depois de uma Cimeira sobre Segurança da IA organizada pelo Reino Unido e de uma ordem executiva sobre IA dos Estados Unidos da América, os três grandes países da União Europeia - França, Alemanha e Itália - emitiram um texto não oficial destinado a preservar a abordagem neutra em termos de tecnologia e baseada no risco da Lei da IA da União Europeia, afirmando que os riscos associados aos sistemas de aprendizagem automática estão relacionados com a implementação e não com a tecnologia em si.
Defenderam que devem ser aplicados códigos de conduta em vez de regulamentos legais relativos aos modelos de base da IA generativa, tornando o trabalho sobre a Lei da IA da União Europeia um processo complexo.
Felizmente, chegou-se finalmente a um texto de compromisso e os esforços de muitos anos foram recompensados: a Lei da IA da União Europeia. Além disso, mais recentemente, foi criado um Conselho da IA para assegurar a aplicação efectiva da lei.
Tal como salientado no primeiro artigo do texto de compromisso da Lei da IA, este regulamento visa garantir um elevado nível de proteção da saúde, da segurança, dos direitos fundamentais, da democracia, do Estado de direito e da proteção do ambiente. O âmbito de aplicação da Lei da IA é extraterritorial, tal como o RGPD (Regulamento Geral sobre a Proteção de Dados).
Independentemente de estar ou não estabelecido no território da União Europeia, a Lei da IA aplica-se aos fornecedores de sistemas de IA se estes forem colocados no mercado da União Europeia ou em serviço nesta instituição.
Assim, se uma empresa turca ou americana quiser vender o seu produto ou colocá-lo em serviço, deve cumprir as regras da Lei da IA.
No texto da Lei da IA da União Europeia (UE), foi preferida uma abordagem tecnologicamente neutra. Tal deve-se ao facto de a Lei da IA ter de ser preparada para o futuro, tendo em conta o constante desenvolvimento tecnológico.
Assim, os sistemas de IA que serão utilizados no âmbito de tecnologias relativamente novas, como a realidade aumentada (RA) e as interfaces cérebro-máquina (a tecnologia de que depende o Neuralink de Elon Musk), que em breve farão parte das nossas vidas com as tecnologias de comunicação sem fios da próxima geração, também podem ser avaliados no âmbito do regulamento.
Abordagem orientada para o risco
Além disso, a legislação da UE em matéria de IA tem uma abordagem orientada para o risco. Por risco entende-se aqui os riscos para a saúde, a segurança e os direitos fundamentais. Esta abordagem baseada no risco refere-se a um regime de conformidade legal que é directamente proporcional aos perigos que os sistemas de inteligência artificial podem representar.
Os sistemas de IA que apresentem riscos inaceitáveis são proibidos. Por exemplo, considera-se que os sistemas de reconhecimento de emoções utilizados nos locais de trabalho ou nas instituições de ensino representam riscos inaceitáveis.
Por conseguinte, de acordo com a Lei da IA da UE, seria proibido um sistema de IA utilizado para avaliar o estado de espírito dos trabalhadores, se estão tristes ou felizes, ou a atenção ou o estado de espírito dos estudantes. Qualquer fornecedor de programas de tecnologia educativa baseados em IA deve ter este facto em conta ao entrar no mercado da UE.
Por outro lado, se um sistema de IA representar um risco elevado, tal como definido no regulamento da UE, os fornecedores desses sistemas são obrigados a cumprir as condições de auditoria e outras condições especificadas no regulamento.
De acordo com a Lei da IA, as ferramentas de selecção de candidatos a emprego durante o recrutamento seriam um exemplo de um sistema de IA de alto risco. Uma vez que estas ferramentas começaram a ser utilizadas para anúncios de emprego ou entrevistas de emprego, tendem a surgir muitas questões jurídicas relacionadas com preconceitos e discriminação.
Por conseguinte, tal como qualquer fornecedor de um sistema de IA de alto risco, os fornecedores de tecnologias de recursos humanos devem ter em conta a conformidade regulamentar e os seus encargos.
No entanto, os fornecedores de modelos de IA de uso geral, como o ChatGPT da OpenAI, devem cumprir obrigações mais pesadas. De acordo com o texto comprometido, o teste de um sistema de IA no mundo real só não será proibido se forem aplicadas as protecções necessárias.
No entanto, com o objectivo de apoiar a inovação, os sistemas e modelos de IA especificamente desenvolvidos e colocados em serviço com o único objetivo de investigação e desenvolvimento científico estão excluídos do âmbito de aplicação da Lei da IA.
Até ao lançamento do ChatGPT em 2022 pela OpenAI, alguns argumentavam que os princípios éticos e/ou os códigos de conduta eram suficientes para evitar os riscos dos sistemas de IA.
Especialmente nos Estados Unidos da América (EUA), havia uma crença comum de que qualquer tentativa de regulamentação impediria a inovação. Por esta razão, os EUA demoraram a fazer qualquer esforço de regulamentação.
Em vez disso, a partir da presidência de Obama, foram elaborados roteiros relacionados com a IA. No entanto, uma abordagem de regulamentação mínima e inovação máxima revelou-se insuficiente, uma vez que os grandes modelos linguísticos apresentam muitos riscos que não podem ser resolvidos apenas por quadros éticos.
Assim, um decreto presidencial dos EUA sobre a IA foi revelado pouco antes da Cimeira de Segurança da IA do Reino Unido, realizada em Novembro de 2023 em Londres.
Olhando para os EUA, podemos dizer que a regulamentação já não é uma possibilidade distante. A rápida evolução e os possíveis efeitos do modelo ChatGPT da empresa Open AI, anunciado ao público em 2022, começaram a refletir-se nos EUA.
A ordem exige uma maior transparência das empresas de IA sobre a forma como funcionam os modelos de IA que desenvolvem. Desta forma, serão criadas várias novas normas, como a rotulagem de conteúdos criados por inteligência artificial.
O objectivo da ordem é aumentar a “segurança e proteção da IA”, segundo a Casa Branca. No entanto, existem dúvidas sobre a eficácia da ordem, uma vez que é “demasiado branda” e o seu carácter vinculativo é controverso.
O texto inclui, nomeadamente, a obrigação de os criadores partilharem os resultados dos testes de segurança dos novos modelos de inteligência artificial com o governo dos EUA, caso os testes de segurança mostrem que a tecnologia pode representar um risco para a segurança nacional.
O ano de 2024 promete ser um marco nos esforços regulamentares sobre o desenvolvimento e a implantação da IA, que se transformarão em verdadeiras leis que acompanharão as leis promulgadas no âmbito das estratégias de dados.
Uma vez que os dados e o controlo dos dados definem a revolução da IA, os regulamentos sobre a governação dos dados, a proteção dos dados e os quadros jurídicos para os espaços de dados abertos constituirão o corpo da lei da IA, juntamente com regras específicas sobre esta tecnologia.
Para um futuro brilhante, é importante encontrar uma fórmula para um quadro jurídico para a IA em que todos beneficiem destas tecnologias.
No seu livro O Hobbit, J.R.R. Tolkien afirmou que as coisas perfeitas e sem problemas não fazem histórias; todas as histórias valem a pena ser contadas em tempos complexos e conturbados.
Hoje, como tem sido frequentemente o caso, estamos num tempo desafiante e incerto. É também mais acessível e mais significativo ser determinista em vez de meramente otimista.
E a citação de Tolkien será a força orientadora à medida que todos nós criamos novas histórias nas nossas vidas no século XXI.