Nuno Ferreira Morgado, PLMJ: «A inteligência artificial no mundo do trabalho e o papel do humano»

Há alguns anos, a revista New Yorker publicava um cartoon no qual um robot, com aspecto humano, dava esmola a um ser humano que pedia nas ruas. Este tipo de imagem traduz bem o medo e a preocupação que as pessoas têm a respeito dos impactos da tecnologia, seja ela a robótica ou a inteligência artificial generativa, no emprego.

 

Por Nuno Ferreira Morgado, partner da PLMJ

 

Não obstante ser inegável o impacto que os sistemas de inteligência artificial (IA) terão sobre o emprego – aconteceu em todas as revoluções tecnológicas e agora não será diferente – também não é menos verdade que da sua utilização nascerão novas oportunidades de emprego – como também sucedeu anteriormente.

O que o cartoon da New Yorker revela, também, é a preocupação e a necessidade de proteger as pessoas. Por muito que sejamos optimistas – e eu sou – relativamente ao uso da IA, parece-me que esse uso deve ser objecto da adopção de condições que evitem riscos relevantes que lhe são associados e que podem atingir direitos fundamentais das pessoas.

De notar que o AI Act (Regulamento UE 2024/1689) qualifica como de risco elevado a utilização de IA em processos de recrutamento e selecção, assim como na tomada de decisões na gestão da execução ou cessação da relação laboral. Tal qualificação obriga as empresas a revisões e actualizações sistemáticas regulares, e à adopção de medidas de mitigação de riscos identificados na utilização dessas tecnologias.

Esses riscos não são futuros, mas sim actuais. Com efeito, cada vez mais empresas utilizam IA para o dia-a-dia da gestão de recursos humanos, no recrutamento e selecção de trabalhadores, na tomada de decisões sobre, por exemplo, bónus, progressões salariais ou promoções e, também, nas decisões sobre despedimentos. Essa tendência vai alargar-se e aprofundar-se.

Portugal tem vindo a “equipar-se” de ferramentas legais para garantir uma “utilização saudável” de IA. No plano dos princípios, devemos ter em conta que Carta Portuguesa de Direitos Humanos na Era Digital, aprovada pela Lei n.º 27/2001, de 17 de Maio, prevê que a utilização da IA tem de garantir “um justo equilíbrio entre os princípios da explicabilidade, da segurança, da transparência e da responsabilidade, que atenda às circunstâncias de cada caso concreto e estabeleça processos destinados a evitar quaisquer preconceitos e formas de discriminação”.

A concretização destes princípios tem sido acolhida, designadamente, no Código do Trabalho, que introduziu, por exemplo, novas obrigações para o empregador. Este terá que informar, por escrito, os trabalhadores (e os seus representantes) acerca dos “parâmetros, os critérios, as regras e as instruções em que se baseiam os algoritmos ou outros sistemas de inteligência artificial que afectam a tomada de decisões sobre o acesso e a manutenção do emprego, assim como as condições de trabalho, incluindo a elaboração de perfis e o controlo da actividade profissional”.

É fundamental garantir que a utilização desta tecnologia cumpre a lei, porque se assim não for, as consequências desse facto caem (pesadamente) em cima das empresas. É preciso auditar regularmente estas ferramentas e adoptar medidas destinadas a minimizar/ eliminar os riscos de uma utilização contrária à lei. Existem, de resto, já alguns exemplos na jurisprudência nacional respeitante à utilização de tecnologia na tomada automatizada de decisões com impactos sobre relações laborais, que redundaram na invalidação dessas mesmas decisões, com consequências gravosas para as empresas.

Em suma, IA sim, mas com transparência, ética, controlo e intervenção humana, sempre.

 

Este artigo foi publicado na edição de Janeiro (nº. 169) da Human Resources, nas bancas.

Caso prefira comprar online, tem disponível a versão em papel e a versão digital.

Ler Mais