Por Isabel Moço, coordenadora e professora da Universidade Europeia
A entrada de agentes de Inteligência Artificial (IA) na Gestão de Recursos Humanos está a ser apresentada como inevitável e transformadora. Se o for, e acredito que sim, mais temos que nos capacitar e preparar para essas “ajudas” serem a extensão do nosso trabalho. Mas, porque a tecnologia nos dá as possibilidades e as ferramentas, não significa tal que as devamos enfrentar como inquestionáveis. Estes agentes, automatizam recrutamento, apoiam decisões de desempenho, personalizam aprendizagem e prometem eficiência sem precedentes, por exemplo. Mas há duas dimensões críticas que continuam subavaliadas e que podem comprometer o valor desta transformação: a fadiga de mudança e justiça algorítmica.
Comecemos pela primeira. A literatura em GRH tem sido consistente ao demonstrar que a capacidade de absorção de mudança nas organizações, pelas pessoas naturalmente, não é infinita. O fenómeno de change fatigue, caracterizado por exaustão, resistência e diminuição do engagement face a ciclos contínuos de transformação, tem impactos diretos no desempenho e na saúde organizacional. Segundo a Gartner (2023), apenas cerca de um terço dos colaboradores se sentem preparados para lidar com mudanças organizacionais contínuas. A introdução acelerada de agentes de IA em múltiplos processos de RH pode, paradoxalmente, reduzir a eficácia da própria transformação que pretende impulsionar. Assim, o problema não é a tecnologia, mas o ritmo e a densidade da sua implementação.
Quando os colaboradores são confrontados com sucessivas vagas/camadas de automação – ou até inovação, por exemplo novos sistemas de avaliação, ferramentas de feedback baseadas em IA, algoritmos de triagem de candidatos entre outros que já proliferam no mercado, sem tempo para integração cognitiva e comportamental, o resultado é previsível: perda de engagement, cinismo organizacional e superficialidade na adoção. A mudança deixa de ser transformacional e passa a ser meramente transacional, o que a prazo não serve nem o trabalhador, nem tão pouco o empregador. Acreditamos por isso, que a gestão da mudança no sentido de acautelar o ritmo, cadência e celeridade a que acontece, é absolutamente crítica.
Agora, a segunda dimensão, talvez um pouco mais sensível: A promessa de objectividade dos agentes de IA em RH tem sido amplamente promovida. No entanto, a evidência empírica levanta sérias reservas. Estudos demonstram que algoritmos treinados com dados históricos tendem a reproduzir, e por vezes amplificar, vieses existentes. Baseadas nos dados, portanto nos históricos, estas “decisões” dificilmente “olham para a frente” e evoluem em termos de decisão, pois pese embora possa existir uma tendência evolutiva, estas decisões só vão representar o que em outros tempos, outros contextos, era o “certo”. Um caso amplamente discutido envolveu um sistema de recrutamento que penalizava candidaturas femininas, reflectindo padrões históricos de contratação. A Harvard Business Review alertou há anos que os algoritmos são tão enviesados quanto os dados que os alimentam e por isso se deixa a nota de cautela e validação “à mão”, com olhar humanos sobre os dados, as tendências e as decisões. Quando quem pensa estes temas são gestores de pessoas, isto levanta uma questão estrutural: estamos a automatizar decisões… ou, na automatização, a perder o que mais e melhor particulariza o ser humano, que é a sua capacidade racional?
A justiça algorítmica (algorithmic fairness) torna-se, assim, uma competência crítica da função de RH, a que parece não estar ainda a ser dada muita atenção, tanta quanto o tema merece. Não se trata apenas de compliance ou ética normativa, mas de risco organizacional. Decisões enviesadas em recrutamento, por exemplo, avaliação de desempenho ou progressão podem comprometer diversidade, reputação e até exposição legal. Organizações como a OECD têm vindo a reforçar princípios claros para o uso responsável de IA: transparência, explicabilidade, robustez e accountability. No entanto, a operacionalização destes princípios na prática de RH parece ainda longe de ser consistente.
E como se relaciona fadiga face à mudança e a justeza do suporte de agentes AI para a tomada de decisão, no âmbito da Gestão de Pessoas? A implementação de agentes de IA em RH, quando feita sem uma arquitectura de mudança sustentável e sem salvaguardas robustas de equidade, cria um duplo risco: colaboradores fatigados por transformação contínua e decisões potencialmente injustas legitimadas por tecnologia. Ou seja, eficiência operacional pode estar a ser alcançada à custa de sustentabilidade humana e justiça organizacional.
Talvez um novo papel para o gestor de pessoas seja assumir uma posição mais estratégica e crítica neste contexto de transformação, deixando de ser apenas um implementador de tecnologia para se afirmar como um verdadeiro arquitecto de transformação sustentável. Isso implica também evoluir de um utilizador passivo de algoritmos para um garante ativo de equidade e transparência nas decisões organizacionais, assegurando que a tecnologia não cria, amplifica ou “normaliza” vieses. Paralelamente, exige a transição de uma lógica centrada na gestão de processos para uma abordagem mais sofisticada, orientada para a curadoria da experiência humana em ambientes cada vez mais digitais e mediados por AI. A adopção de agentes de IA não pode ser apenas uma decisão tecnológica, mas fundamentalmente uma decisão de gestão de pessoas, e cabe-nos fazer essa curadoria. Em última instância, o tema não é se vamos continuar, cada vez mais, a incorporar IA em RH, pois isso já nem é questão. Talvez a verdadeira questão da articulação destes dois temas é se vamos usar a IA para “aliviar” a complexidade organizacional e promover decisões mais justas, ou se, pelo contrário, a vamos utilizar para acelerar mudanças mal digeridas e cristalizar vieses sob a aparência de objectividade tecnológica.












































































































































































































