Júlia Mendes da Costa, PLMJ: «É inegável que o uso da IA tem vindo a beneficiar a gestão RH nas empresas, mas também acarreta alguns riscos»

Na XXIX Conferência Human Resources, Júlia Mendes da Costa, senior associate da PLMJ, alertou que «é inegável que o uso da IA tem vindo a beneficiar a gestão de recursos humanos nas empresas, mas também acarreta alguns riscos».

 

A especialista da PLMJ subiu a palco para falar sobre o novo regulamento europeu «EU Artificial Intelligence (AI) Act» dedicado à inteligência artificial e o seu impacto no mundo laboral. E não tem dúvidas que «é inegável que o uso da Inteligência Artificial tem vindo a beneficiar a gestão de recursos humanos nas empresas com ganhos de eficiência muito significativos e a tendência será necessariamente o crescimento e a amplificação e diversificação do uso da Inteligência Artificial no contexto de trabalho.»

Mas alertou que «esta expansão acarreta também alguns riscos, porque há uma tendência muito natural para confiar na objectividade dos resultados que são produzidos por estes sistemas de Inteligência Artificial e esquecer que os algoritmos que compõem estes sistemas não são mais do que construções humanas, somos nós que alimentamos estes sistemas que os trabalhamos, que os treinamos e, portanto, como nós, os sistemas acabam por ser tendenciosos, os resultados, pelo menos, e falíveis»

E foi com este quadro de, por um lado, crescente utilização dos sistemas de IA e, por outro, de riscos que já se vêm materializando que o legislador europeu decidiu criar este Regulamento Europeu de Inteligência Artificial, que já foi publicado no ano passado e que já está em vigor, mas que tem uma aplicação faseada, explicou a senior associate da PLMJ.
O Regulamento é a primeira peça legislativa supranacional a abordar o desenvolvimento da Inteligência Artificial numa perspectiva transversal e que traz importantes obrigações no contexto laboral para os empregadores. «E é com o objectivo de, por um lado, promover a Inteligência Artificial e, por outro, controlar os riscos que já se começam a materializar que este regulamento vem trazer uma série de obrigações para restaurar até a confiança nos sistemas. Traz uma série de obrigações e de exigências de governação que são aplicáveis em vários pontos da cadeia de valor digital da IA e que vai desde os fornecedores aos utilizadores de sistemas de Inteligência Artificial que sejam, naturalmente, estabelecidos no território da União Europeia. E, por isso, as empresas empregadoras, aqui na qualidade dos utilizadores destes sistemas, ficarão sujeitos ao cumprimento de obrigações que são previstas neste regulamento», assegurou Júlia Mendes da Costa.

Neste regulamento são regulados sistemas de IA. Segundo a especilista, «a definição é muito técnica, mas só para ficarem com uma ideia, são exemplos típicos de sistemas de IA o Copilot, a Siri, o Tesla Autopilot, sistemas de reconhecimento facial, também os softwares de recrutamento que utilizam Inteligência Artificial e com os quais já estarão familiarizados.»

E, para determinar as obrigações a que os operadores destes sistemas ficam sujeitos, o regulamento segue uma abordagem baseada no risco. Classifica quatro níveis de risco, considerando a função do sistema de IA, a função que desempenha e também as finalidades específicas para que o sistema é utilizado.

O Regulamento Europeu atribui o risco inaceitável aos sistemas que não poderão de todo ser utilizados. São sistemas que são proibidos e as organizações não os podem utilizar. Os de risco elevado, que são sistemas que carregam algum risco e que, portanto, têm associadas algumas obrigações mais apertadas. E os sistemas de risco limitado, risco mínimo ou nulo, que têm obrigações pouco significativas.

E, transpondo esta categorização para o contexto laboral, a senior associate da PLMJ explicou que o regulamento «começa por classificar como de risco inaceitável. Portanto, são sistemas que não podem de todo ser utilizados. Antes de mais, os sistemas de IA que utilizam os dados biométricos das pessoas para inferir as emoções de uma pessoa. E, aqui, neste nosso âmbito, fala-se tanto de trabalhadores como de candidatos a emprego como de prestadores de serviços».
Acrescentando que «e o que se fala aqui é de uma coisa que, certamente, já terão ouvido falar, que é a tecnologia das emoções, que tem sido muitíssimo desenvolvida e que é muito utilizada para acompanhar o processo de recrutamento. Portanto, há algoritmos de recrutamento que vão eliminar os candidatos com base no nível de entusiasmo que os candidatos demonstram na entrevista e também para inferir níveis de produtividade ou de stress através dos softwares que analisam os movimentos corporais dos trabalhadores.»
A Comissão Europeia, em guidelines que publicou aqui há pouco mais de um mês, dá como exemplo destes sistemas de IA proibidos a utilização das webcams ou de sistemas de reconhecimento de voz nos call centers para perceber se se detectaram as emoções nos trabalhadores, para perceber se os trabalhadores, quando estão a atender as chamadas de clientes, demonstram inquietação, impaciência ou stress.
E o que vem a dizer a Comissão Europeia é que não é permitida a utilização destes sistemas, a não ser que tenham como único propósito a formação do trabalhador e desde que não possam ter impacto na sua avaliação de desempenho ou nas suas promoções. Júlia Mendes da Costa afirmou ainda que «para além destes que são só permitidos se tiverem estas finalidades, também será permitido, e aqui já por razões de segurança, a utilização de sistemas com estas características que tenham como finalidade, por um lado, medir a ansiedade com base nos níveis de stress dos trabalhadores que utilizam máquinas pesadas ou componentes químicos perigosos e, por outro lado, também estes sistemas que servem para nivelar o cansaço dos condutores de veículos.»

Por outro lado, a especialista da PLMJ chama a atenção que «são também categorizados como de risco inaceitável e, portanto, absolutamente distinguidos os sistemas que utilizam os dados biométricos e aqui falamos dos traços ou o formato da cara, a cor da pele, para categorizar os trabalhadores com o objectivo de obter dados sensíveis que de outra forma os empregadores não teriam acesso e fala-se aqui da selecção sindical, convicções políticas ou religiosas, orientação sexual e, pelo potencial discriminatório, estes sistemas também são proibidos.»

A responsável revelou ainda que as normas do Regulamento Europeu que preveem a proibição destes sistemas com estas características já está em vigor desde Fevereiro deste ano, alertando os presentes que «se os utilizam é de erradicar o quanto antes.»

Júlia Mendes da Costa destacou que ainda na fase de recrutamento classifica-se como de risco elevado quaisquer sistemas de IAC sejam utilizados para seleccionar candidatos e para analisar e filtrar candidaturas e avaliar candidatos. «Estima-se que, hoje em dia, cerca de 70% das grandes empresas utilizem, recorram a estas soluções de inteligência artificial com estas características de forma a simplificar os processos de recrutamento. O que acontece é que sistemas com estas características podem ser alimentados e treinados com algoritmos tendenciosos e que vão gerar resultados discriminatórios, é o chamado algorithmic bias» fazendo notar que «é precisamente por reconhecer a existência deste risco de discriminação e de outros, que o Regulamento Europeu vem classificar como de risco elevado estes temas.»

Já na fase de execução do contrato, o Regulamento classifica como de risco elevado os sistemas que sejam concebidos para serem utilizados na tomada de decisão, que afectem os termos da relação-trabalho, a promoção na carreira, a afectação pós-trabalho, a distribuição de tarefas, quando sejam baseados num comportamento individual ou nas características ou traços pessoais de uma pessoa.
A responsável frisou ainda que «por fim, na fase de cessação de contratos, também é classificado como de risco elevado a utilização de sistemas de IA que sirvam para tomar decisões quanto à cessação do contrato. E aqui um exemplo típico é a da selecção de trabalhadores para um despedimento colectivo ou para a cessação do pós-trabalho.» Referindo que a este respeito, «não há muito tempo, um grande empregador português recorreu a um algoritmo para seleccionar os seus trabalhadores para um despedimento colectivo, sendo que o critério de selecção, ou um dos critérios, era o do absentismo e o que acontece é que o algoritmo que foi utilizado desconsiderou situações de doença, de ausência por doença e, portanto, faltas justificadas, e conduziu a resultados discriminatórios que foram, aliás, reconhecidos pelo Tribunal.»

De acordo com Júlia Mendes da Costa, a Comissão Europeia irá disponibilizar uma lista com exemplos práticos do que é que deve ser incluído dentro de cada uma destas fases, o que é que devem ser classificados como risco elevado. E depois, para estes sistemas de risco elevado, o regulamento sujeito aos empregadores, na qualidade dos utilizadores destes sistemas, há um conjunto de obrigações que têm vista à mitigação do risco e há muitas obrigações mais técnicas. A responsável destacou apenas estas três.

«Por um lado, a aplicação de medidas de supervisão humana que sejam dedicadas pelos fornecedores destes sistemas, ou seja, as empresas têm que implementar estas medidas, garantir que estes sistemas são supervisionados por alguém na sua organização».
E depois, «garantir que estas tarefas de supervisão humana são executadas por pessoas com competências e formação necessárias, e autoridade também, para que possam efectuar bem estas tarefas. Por outro lado, também garantir a qualidade dos dados que são utilizados nestes sistemas, ou seja, assegurar que os dados de entrada são suficientemente representativos em função da finalidade, para garantir que não conduza resultados discriminatórios.»
E também, «um dever de informação aos trabalhadores e representantes dos trabalhadores antes da implementação ou da utilização de qualquer sistema de hábito risco elevado. Esta obrigação não é nova no nosso ordenamento jurídico, o Código de Trabalho desde 2003, no ambiente da agenda do trabalho digno, já introduziu uma obrigação de informação dos trabalhadores e das estruturas representativas sempre que sejam utilizados, se bem que o Código de Trabalho estende também a algoritmos, mas sistemas de inteligência artificial que tenham estas características, que possam influenciar decisões, embora aqui, o regulamento tenha um quadro sancionatório bastante mais pesado do que aquele que está previsto na nossa legislação.»
E sobre este dever de informação, a especialista da PLMJ partilhou duas notas. «O dever de informação é aplicável não só aos trabalhadores temporários, mas também aos candidatos que estão no processo de recrutamento e que são sujeitos à avaliação por estes temas. E, por outro lado, a informação deve ser prestada não só à Comissão de Trabalhadores, e aos delegados sindicais, mas também pode ter de ser prestada, por exemplo, no âmbito de um despedimento colectivo à Comissão Representativa de Trabalhadores que seja constituída».
«E depois há também uma obrigação geral, como qualquer sistema que seja utilizado no âmbito da organização, que é o de proporcionar formação em literacia de A. Esta obrigação também já está em vigor desde Fevereiro deste ano. E, portanto, esta obrigação aproveita não só os trabalhadores que tenham de utilizar estes temas e que façam a supervisão destes temas, mas também todos os trabalhadores que, não utilizando estes temas, sejam destinatários de decisões que tenham, por base, resultados produzidos por estes temas e, portanto, para terem a certeza do sistema e a informação que lhes é prestada.»
Este regulamento já está em vigor. Entrou em vigor em 1 de Agosto do ano passado, mas tem uma aplicação faseada, sendo para a senior associate da PLMJ de reter, essencialmente, duas datas. «Dia 2 de Fevereiro deste ano, quando entraram em vigor as obrigações relativas aos sistemas de IA proibidos, que não podem de todos ser utilizados, que falei inicialmente, e também as obrigações de formação em literacia de IA. E o 2 de Agosto de 2026, do próximo ano, será a data em que entrarão em vigor as obrigações relativamente aos sistemas de risco elevado, que também falei.» Alertando que «em caso de incumprimento destas obrigações, as empresas ficam expostas a coimas, sendo que as coimas podem ir até aos 35 milhões ou até 7% do volume de negócios anual da empresa a nível mundial.»
Para concluir, Júlia Mendes da Costa partilhou uma sugestão para que as empresas possam adaptar-se e preparar-se para o cumprimento das obrigações, «devem verificar se utilizam ou pretendem implementar sistemas de IA no âmbito laboral, categorizar esses sistemas, consoante o nível de risco, verificar as obrigações e apostar, isto é essencial na literacia em IA, através de acções de sensibilização e de formação e, por fim, a implementação de uma política que dê cumprimento a estas obrigações de formação, que estabeleça regras sobre a utilização.»
Frisando que «é importante que a empresa defina claramente quais são as funções que podem ser exercidas com recurso aos sistemas de inteligência social e aquelas que não podem de todos ser exercidas. E, depois, também garantir alguma disciplina interna nesta matéria com a responsabilização das chefias na supervisão eficaz da utilização dos temas.»
Ler Mais