
Júlia Mendes da Costa, PLMJ: «É inegável que o uso da IA tem vindo a beneficiar a gestão RH nas empresas, mas também acarreta alguns riscos»
Na XXIX Conferência Human Resources, Júlia Mendes da Costa, senior associate da PLMJ, alertou que «é inegável que o uso da IA tem vindo a beneficiar a gestão de recursos humanos nas empresas, mas também acarreta alguns riscos».
A especialista da PLMJ subiu a palco para falar sobre o novo regulamento europeu «EU Artificial Intelligence (AI) Act» dedicado à inteligência artificial e o seu impacto no mundo laboral. E não tem dúvidas que «é inegável que o uso da Inteligência Artificial tem vindo a beneficiar a gestão de recursos humanos nas empresas com ganhos de eficiência muito significativos e a tendência será necessariamente o crescimento e a amplificação e diversificação do uso da Inteligência Artificial no contexto de trabalho.»
Mas alertou que «esta expansão acarreta também alguns riscos, porque há uma tendência muito natural para confiar na objectividade dos resultados que são produzidos por estes sistemas de Inteligência Artificial e esquecer que os algoritmos que compõem estes sistemas não são mais do que construções humanas, somos nós que alimentamos estes sistemas que os trabalhamos, que os treinamos e, portanto, como nós, os sistemas acabam por ser tendenciosos, os resultados, pelo menos, e falíveis»
Neste regulamento são regulados sistemas de IA. Segundo a especilista, «a definição é muito técnica, mas só para ficarem com uma ideia, são exemplos típicos de sistemas de IA o Copilot, a Siri, o Tesla Autopilot, sistemas de reconhecimento facial, também os softwares de recrutamento que utilizam Inteligência Artificial e com os quais já estarão familiarizados.»
E, para determinar as obrigações a que os operadores destes sistemas ficam sujeitos, o regulamento segue uma abordagem baseada no risco. Classifica quatro níveis de risco, considerando a função do sistema de IA, a função que desempenha e também as finalidades específicas para que o sistema é utilizado.
O Regulamento Europeu atribui o risco inaceitável aos sistemas que não poderão de todo ser utilizados. São sistemas que são proibidos e as organizações não os podem utilizar. Os de risco elevado, que são sistemas que carregam algum risco e que, portanto, têm associadas algumas obrigações mais apertadas. E os sistemas de risco limitado, risco mínimo ou nulo, que têm obrigações pouco significativas.
Por outro lado, a especialista da PLMJ chama a atenção que «são também categorizados como de risco inaceitável e, portanto, absolutamente distinguidos os sistemas que utilizam os dados biométricos e aqui falamos dos traços ou o formato da cara, a cor da pele, para categorizar os trabalhadores com o objectivo de obter dados sensíveis que de outra forma os empregadores não teriam acesso e fala-se aqui da selecção sindical, convicções políticas ou religiosas, orientação sexual e, pelo potencial discriminatório, estes sistemas também são proibidos.»
A responsável revelou ainda que as normas do Regulamento Europeu que preveem a proibição destes sistemas com estas características já está em vigor desde Fevereiro deste ano, alertando os presentes que «se os utilizam é de erradicar o quanto antes.»
Júlia Mendes da Costa destacou que ainda na fase de recrutamento classifica-se como de risco elevado quaisquer sistemas de IAC sejam utilizados para seleccionar candidatos e para analisar e filtrar candidaturas e avaliar candidatos. «Estima-se que, hoje em dia, cerca de 70% das grandes empresas utilizem, recorram a estas soluções de inteligência artificial com estas características de forma a simplificar os processos de recrutamento. O que acontece é que sistemas com estas características podem ser alimentados e treinados com algoritmos tendenciosos e que vão gerar resultados discriminatórios, é o chamado algorithmic bias» fazendo notar que «é precisamente por reconhecer a existência deste risco de discriminação e de outros, que o Regulamento Europeu vem classificar como de risco elevado estes temas.»
De acordo com Júlia Mendes da Costa, a Comissão Europeia irá disponibilizar uma lista com exemplos práticos do que é que deve ser incluído dentro de cada uma destas fases, o que é que devem ser classificados como risco elevado. E depois, para estes sistemas de risco elevado, o regulamento sujeito aos empregadores, na qualidade dos utilizadores destes sistemas, há um conjunto de obrigações que têm vista à mitigação do risco e há muitas obrigações mais técnicas. A responsável destacou apenas estas três.