Filtragem de IA para candidaturas a empregos 'discrimina' com base em raça, religião
CIÊNCIA & TECNOLOGIA
3 min de leitura
Filtragem de IA para candidaturas a empregos 'discrimina' com base em raça, religiãoA "discriminação algorítmica" ocorre quando os dados nos quais a IA é treinada já carregam preconceitos contra determinados grupos, levando a decisões desfavoráveis contra eles, afirma um especialista.
Sabe-se que o Google, o Meta e a Amazon usam essas ferramentas, como essas ferramentas de filtragem automática. / Foto: AP
18 de dezembro de 2024

Recrutadores de emprego no mundo atual utilizam sistemas de filtragem alimentados por inteligência artificial (IA), que supostamente "discriminam algoritmicamente" pessoas com base em sua raça, gênero, idioma e religião.

Yeliz Bozkurt Gumrukcuoglu, professora de Direito Privado na Universidade Ibn Haldun em Istambul, declarou à Anadolu Agency que empresas gigantes de tecnologia como Meta, Google e Amazon são conhecidas por utilizar essas ferramentas, já que essas ferramentas de filtragem automática proporcionam eficiência de tempo.

Gumrukcuoglu disse que a “discriminação algorítmica” ocorre quando os dados com os quais a IA é treinada já contêm preconceitos contra determinados grupos, resultando em decisões desfavoráveis contra eles.

Os preconceitos daqueles que desenvolvem essas ferramentas também contribuem para a injustiça do recrutamento de empregos com base em IA, disse Gumrukcuoglu, e, como resultado, ela argumentou que um número consideravelmente menor de pessoas de cor e mulheres pode passar pela filtragem da IA.

Ela disse que essa questão tem sido objeto de várias ações judiciais em muitos países até o momento, surgindo primeiro em um caso relacionado à Amazon.

“A Amazon desenvolveu seu algoritmo de recrutamento com os dados treinados pelos candidatos aceitos na última década, a maioria dos quais eram homens. E, quando colocado em uso, a filtragem filtrava diretamente as candidatas mulheres”, disse ela.

“O Facebook, da mesma forma, promoveu sua filtragem discriminatória que surgiu como um caso nos EUA em 2018, e o governo dinamarquês impôs uma multa administrativa à plataforma de mídia social pelo mesmo motivo”, acrescentou.

Sobre música e penteados

No entanto, isso não termina aí, pois Gumrukcuoglu observou que alguns candidatos foram negados pelos algoritmos de recrutamento por terem penteados tradicionalmente negros, por morarem em regiões supostamente com alta concentração de imigrantes ou até mesmo por ouvirem determinados artistas e gêneros musicais.

Ela disse que os desenvolvedores e as empresas que usam essas ferramentas de filtragem de recrutamento devem estar em conformidade com os direitos e valores humanos, e as autoridades competentes e os governos devem monitorar de perto as violações éticas.

“Por exemplo, a UE decidiu implementar uma regulamentação sobre o risco de a IA ser usada nesse campo”, disse ela.

Ela observou que um regulador global sobre o uso de IA no recrutamento de empregos pode ser necessário para evitar a discriminação.

“Enquanto nossos dados não forem devidamente protegidos nossos vestígios tecnológicos cairão nas mãos das empresas e, portanto, poderão ser usados para nos avaliar, já que não seremos mais julgados apenas por nossos currículos. Esse também é o caso da Türkiye”, disse ela.

“Os algoritmos de filtragem precisam ser desenvolvidos para serem mais transparentes e responsáveis por suas decisões, portanto, temos duas opções diante de nós:

Deixaremos que a IA se desenvolva tão rapidamente quanto hoje, ou pisaremos um pouco no freio e avançaremos lentamente em uma estrutura ética? Veremos a resposta no próximo período”, acrescentou.