Nuno Morgado, PLMJ: O impacto dos algoritmos no trabalho

Eficiência com responsabilidade, transparência e factor humano.

 

Por Nuno Ferreira Morgado, partner na PLMJ

 

A gestão algorítmica deixou de ser uma curiosidade tecnológica para se tornar uma infra-estrutura de muitas decisões em Recursos Humanos (RH): recrutamento e selecção, afectação de tarefas, avaliação de desempenho, definição de horários e remuneração variável, bem como a detecção de incumprimentos e o accionamento de processos disciplinares. Os ganhos são claros – escalabilidade, consistência e rapidez –, mas o custo de uma implementação descurada pode ser elevado: opacidade, enviesamentos que geram discriminação, erosão da confiança, riscos psicossociais e litigância.

O legislador laboral português já reagiu. Desde a Lei n.º 13/2023 que o Código do Trabalho integra disposições específicas sobre algoritmos e inteligência artificial (IA), impondo obrigações que reforçam a protecção contra discriminação em decisões automatizadas.

Entre as medidas mais relevantes, destacam-se as seguintes:

O Código passou a incluir, entre as matérias insusceptíveis de afastamento por instrumento colectivo em sentido menos favorável, o “uso de algoritmos, inteligência artificial e matérias conexas”, sinalizando a natureza sensível destas práticas e a necessidade de salvaguarda de direitos indisponíveis.

O direito à igualdade no acesso ao emprego e no trabalho passou a aplicar-se expressamente às “tomadas de decisões baseadas em algoritmos ou outros sistemas de inteligência artificial”, cobrindo todo o ciclo laboral: pré-contratual, execução e cessação. A “neutralidade” técnica não exonera o empregador; modelos treinados com dados enviesados reproduzem desigualdades.

No plano individual, o empregador deve comunicar aos trabalhadores os parâmetros, critérios, regras e instruções em que se baseiam os algoritmos ou sistemas de IA que influenciem o acesso e a manutenção do emprego, condições de trabalho, perfis e controlo da actividade.

No plano colectivo, comissões de trabalhadores e delegados sindicais têm direito a idêntica informação e consulta, reforçando a sindicabilidade colectiva da gestão algorítmica.

Em matéria de vigilância e controlo, continuam a aplicar-se os direitos de personalidade, limitações aos meios de vigilância e as exigências de protecção de dados, incluindo restrições à tomada de decisão exclusivamente automatizada.

 

A supervisão destes sistemas tem de ser “human in command”, e isto é muito mais do que um rótulo. Decisões com efeitos ou impacto significativos – por exemplo, exclusões em recrutamento, atribuição de prémios, negativas de bónus, alterações de horário com afectação à conciliação familiar, selecção em despedimento colectivo ou por extinção de posto – não podem ser tomadas apenas por algoritmos. Devem ser explicáveis, revistas por humanos e justificadas à luz dos critérios legais.

A supervisão exige literacia digital interna (formação de gestores e RH), registos auditáveis das intervenções humanas e rotinas de “apontar e corrigir” enviesamentos e erros sistemáticos.

 

Este artigo foi publicado na edição de Novembro (nº. 179) da Human Resources.

Disponível nas bancas e online, na versão em papel e na versão digital.

Ler Mais