Estamos a assistir a um deskilling? Há quem defenda que sim. E a culpa é da tecnologia, está a estupidificar-nos
A IA vai estupidificar o ser humano? Talvez já tenha começado, mas ainda não nos apercebemos, avança o The Telegraph.
Num cenário onde humanos e máquinas já trabalham lado a lado, não é possível assumir que a introdução de novas tecnologias melhore a realidade. Na verdade, pode desequilibrá-la, com resultados catastróficos.
Isto deve-se ao que se chama “deskilling” [“desqualificação”] – a perda do conhecimento e das competências que temos hoje. Este é um problema subtil que interessa a poucos, lamentaram no ano passado académicos finlandeses no artigo “The Vicious Cycles of Skill Erosion”.
O deskilling face à automatização cognitiva é um problema que “pode permanecer obscuro, não reconhecido pelos trabalhadores nem pelos gestores”. Ignoramo-lo mesmo quando está à nossa frente. O antigo árbitro da Premier League inglesa, Mark Clattenberg, lamentou como a tecnologia VAR fez com que os árbitros se mostrassem relutantes em confiar nos seus próprios julgamentos. Na aviação, o deskilling tem sido falado durante décadas, à medida que a tecnologia assume cada vez mais o trabalho do piloto.
«Há motivos para acreditar que a automatização pode já ter ultrapassado o seu ponto ideal», alertava o cientista da NASA, Earl Weiner, em 1980. «Os dispositivos digitais eliminam pequenos erros enquanto criam oportunidades para grandes erros», observou Weiner.
O deskilling está no centro das atenções à medida que se implora às empresas que instalem a IA generativa ao lado dos profissionais inteligentes e capazes. A palavra “inteligência” em IA pode ser considerada fraudulenta: o software despeja toneladas de informação aparentemente plausível, mas enganadora, contudo não consegue raciocinar.
Num relatório sobre confiança na IA publicado pelo NHS England em Abril deste ano, o NHS, o serviço nacional de saúde britânico, já foi avisado de que «o deskilling pode afectar não especialistas, que podem recorrer à IA para completar tarefas fora da sua área de especialização, bem como especialistas, que podem ser incapazes de manter e melhorar as suas próprias competências de julgamento clínico e confiança se vierem a depender de tecnologias de IA».
No desenvolvimento de software, uma “corrida ao ouro” financiada por capital de risco viu quase um bilião de dólares investidos em assistentes de codificação de IA. Mas os especialistas humanos estão a ficar cansados dos companheiros robôs. «Deixei de usar IA porque estava a tornar-me mais estúpido», explicou um programador sénior ao especialista em robótica e crítico de IA, Filip Piekniewski.
Investigadores da Microsoft e da Universidade de Edimburgo descobriram que existe uma penalização de tempo para verificar e voltar a verificar os resultados da IA, o que prejudica «outras tarefas produtivas, como escrever código ou testar». A consequência, relataram os investigadores, foi «um aumento da carga cognitiva, frustração e tempo despendido nas tarefas que a IA generativa alegadamente deve apoiar». Em alguns casos, «a utilização de suporte IA Gen pode, de facto, levar à perda de produtividade».
Além disso, é preciso ter bastante experiência para detectar os erros que a IA cria, realça Piekniewski. Os programadores juniores que externalizam o seu trabalho para a IA perderão a capacidade de se tornarem eles próprios seniores experientes.