
Mulheres e a discriminação algorítmica
Por Tatiana Marinho, advogada da Cerejeira Namora, Marinho Falcão
Durante décadas, o Direito do Trabalho habituou-se a lidar com discriminações que tinham um rosto. Havia decisões tomadas por pessoas, critérios discutíveis, responsáveis identificáveis e, por isso, podiam ser contestadas, impugnadas e corrigidas.
Hoje, porém, essa discriminação começa a mudar de forma e muitas decisões deixam de resultar de uma escolha humana directa, mas antes de sistemas algorítmicos que aprendem com base nos inputs humanos que recebem.
Estes sistemas são já utilizados em vários momentos da relação laboral: recrutamento, avaliação de desempenho, organização dos tempos de trabalho e até em processos de despedimento. Já são as máquinas que, através da análise de dados do passado, conseguem prever (ou decidir) quem é “mais adequado”, “mais produtivo” ou “menos arriscado”.
É aqui que reside o desafio: os algoritmos aprendem com o passado. E o passado do mercado de trabalho não foi neutro em relação às mulheres, já que, durante décadas, as carreiras femininas foram mais interrompidas, mais penalizadas pela maternidade e mais condicionadas por uma distribuição desigual de responsabilidades familiares.
Exemplos simples ajudam a perceber o fenómeno: sistemas de recrutamento que analisam automaticamente os currículos e “aprendem” que os percursos mais valorizados são os percursos contínuos e sem pausas, sempre que encontram um intervalo de um ou dois anos, atribuem uma classificação mais baixa ou excluem o candidato (não porque saibam o motivo dessa pausa, mas porque a interpretam como falta de consistência).
O risco torna-se particularmente evidente quando estas ferramentas são usadas para decisões estruturais, como despedimentos. Em vários contextos internacionais (mas também se conhecem situações ocorridas em Portugal), foram utilizados sistemas de análise algorítmica para identificar trabalhadores considerados “menos estratégicos” com base em indicadores históricos de produtividade, assiduidade ou desempenho. No entanto, essas variáveis, aparentemente neutras, não distinguiam as razões subjacentes aos dados analisados, pelo que, períodos de ausência ligados a licenças parentais, reduções temporárias de horário ou outros factores relacionados com responsabilidades familiares, eram tratados como simples quebras de performance estatística, já que o algoritmo não avaliava direitos legalmente protegidos nem contextos pessoais.
O Regulamento Europeu da Inteligência Artificial (AI Act) reconhece este risco ao classificar os sistemas utilizados na gestão de Recursos Humanos como de “alto risco”. Não proíbe a sua utilização, mas sujeita-a a exigências rigorosas de gestão de risco, qualidade dos dados, transparência, supervisão humana e monitorização, precisamente para prevenir efeitos discriminatórios. Embora tenha entrado em vigor em 2024, estas obrigações só se tornarão plenamente aplicáveis a partir de agosto de 2026, estando a implementação completa prevista para 2027.
Assinalar o Dia Internacional da Mulher neste contexto deve alertar-nos para estes mecanismos silenciosos. A igualdade já não depende apenas das normas que escrevemos, mas também dos dados que utilizamos e da forma como escolhemos utilizá-los. Se o Direito não acompanhar esta transformação, arriscamo-nos a ver repetir, em linguagem matemática, desigualdades que julgávamos ultrapassadas.