Inteligência artificial em tudo: A disrupção dos RH

Muitos esperam que os algoritmos ajudem os Recursos Humanos a evitar os seus próprios preconceitos, adicionando consistência e celeridade ao processo de contratação. Mas os algoritmos apresentam, eles próprios, novos riscos: podem replicar preconceitos institucionais e históricos, ampliando desvantagens ocultas na hora de contratar e despedir. Mas como contar com a Inteligência Artificial (IA) de uma forma isenta?

 

Por Pedro Antunes, sócio do departamento Laboral da CCA

 

A Amazon esteve recentemente no centro de uma polémica devido à utilização de uma ferramenta de selecção de candidatos que tinha um problema: a ferramenta foi criada baseando-se em padrões de CV enviados para a empresa nos últimos 10 anos, maioritariamente de homens, o que discriminava as candidaturas de mulheres. A Amazon ainda tentou adaptar a ferramenta para que os resultados não mostrassem distorções e discriminações, mas acabou por deixar de utilizá-la.

De facto, a IA e os algoritmos são cada vez mais utilizados no mundo laboral. A alegação de objectividade, tecnicidade ou cientificidade é frequentemente utilizada pelos defensores do “people analytics” para desacreditar as críticas. Embora seja verdade que a matemática envolvida é complexa, o principal a ter em conta não é a forma como o sistema funciona, mas sim como é programado.

Outro exemplo: recentemente, no âmbito de uma reestruturação em Portugal, uma companhia aérea recorreu ao apoio de uma consultora que está a usar um algoritmo para identificar os trabalhadores elegíveis para rescisão, com base num conjunto de critérios, entre eles a onerosidade, o absentismo e a senioridade dos colaboradores. O problema é que, segundo o que foi denunciado por alguns colaboradores e pelo sindicato, a “máquina” está a referenciar colaboradores que estiveram ausentes, mas com falta justificada. Por exemplo, foram chamados colaboradores com faltas por acidentes de trabalho ou falecimento de familiares, o que surpreendeu a própria equipa de Recursos Humanos. Os advogados de alguns trabalhadores e o Sindicato acusam a companhia de deixar nas mãos da tecnologia aquilo que carece de verificação e ética humana.

O caso vem a público precisamente numa altura em que o Governo debate com os parceiros sociais (através do Livro Verde para o Futuro do Trabalho) a regulamentação do uso de algoritmos em contexto laboral e numa altura em que a própria Comissão Europeia apresentou uma proposta de regulamentação da IA neste tipo de situações.

Concordo que a utilização de IA tem de ser pensada e regulamentada, até porque muitos são os bons exemplos da sua aplicação que está longe de se resumir à gestão de tarefas. Aliás, muitas são as soluções de automação que já são frequentemente utilizadas pelos departamentos de Recursos Humanos, não só no recrutamento, mas também nas avaliações de desempenho, nos planos de progressão, nas formações e nas rescisões. Sendo certo que no RGPD (Regulamento Geral sobre a Protecção de Dados) já se prevê que qualquer trabalhador pode recusar a ficar sujeito a uma decisão baseada apenas no tratamento de dados, o desafio do Governo será regular o seu uso de forma clara para todos, e, de preferência, no âmbito da alteração ao próprio Código do Trabalho, dado que não faz sentido pensar-se que seja através de legislação avulsa. Há que criar normas e não ter medo de mudar o Código do Trabalho, que já se encontra desactualizado da nossa realidade.

Um passo que já começou a ser dado pela Comissão Europeia na sua proposta de regulamentação de IA, impondo que as empresas cumpram regras onde garantam a qualidade e fiabilidade dos dados, com registos de actividade e rastreabilidade dos resultados, para evitar discriminações. Ou seja, não depender somente da máquina e assegurar sempre um controlo e supervisão humana de forma a haver uma total transparência e equidade.

Devido à sua complexidade, uma estratégia de transparência adequada precisa de ser planeada e projectada com diferentes soluções feitas à medida, tendo em conta diversos contextos. O caminho, contudo, será, para já, o de legislar no sentido de limitar a actuação destas ferramentas de IA, colocando-a no papel de ajudante e não no papel de decisor unilateral.

Ler Mais