
Confiar na IA pode destruir as capacidades de pensamento crítico, conclui estudo da Microsoft
Investigadores da Microsoft e da Carnegie Mellon University alertam que quanto mais utilizar a IA, mais as suas capacidades cognitivas se deterioram, noticia o Gizmodo.
A Inteligência Artificial (IA) pode um dia tornar os humanos obsoletos, mas não da forma que se pensa. Em vez de a IA se tornar tão eficiente a completar tarefas ao ponto de tomar o lugar de uma pessoa, o ser humano pode tornar-se tão dependente de ferramentas imperfeitas que as suas próprias capacidades atrofiam.
Um novo estudo publicado por investigadores da Microsoft e da Carnegie Mellon University descobriu que quanto mais os humanos recorrem a ferramentas de IA para completar as suas tarefas, menos pensamento crítico têm, tornando mais difícil recorrer às competências quando são necessárias.
Os investigadores entrevistaram 319 trabalhadores do conhecimento — pessoas cujo trabalho implica lidar com dados ou informação — e pediram-lhes que partilhassem detalhes de como utilizam ferramentas de IA generativa no local de trabalho. Foi pedido que relatassem as tarefas que lhes foram pedidas, como usaram ferramentas de IA para as completar, o quão confiantes estavam na capacidade da IA de realizar a tarefa, na sua capacidade de avaliar esse resultado e o quão confiantes estavam na sua própria capacidade de completar a mesma tarefa sem qualquer assistência de IA.
Ao longo do estudo, um padrão revelou-se: quanto mais confiante o trabalhador estava nas capacidades da IA de completar a tarefa, mais frequentemente conseguia sentir que estava a “tirar as mãos do volante”. Os participantes relataram uma “percepção de execução de pensamento crítico” quando sentiram que podiam confiar na ferramenta de IA, apresentando um potencial de dependência excessiva da tecnologia sem verificação.
O estudo descobriu que tal acontecia especialmente em tarefas de menor risco, uma vez que as pessoas tendiam a ser menos críticas. Embora seja característica humana ficar entediado com tarefas simples, os investigadores alertaram que isto pode ser um presságio de preocupações sobre a “dependência a longo prazo e a diminuição de resolução de problemas autónoma”.
Por outro lado, quando os trabalhadores tinham menos confiança nas capacidades da IA para completar a tarefa atribuída, mais se envolviam nas suas capacidades de pensamento crítico. Por sua vez, estes relataram geralmente mais confiança nas suas capacidades de avaliar o que a IA produziu e melhorá-lo por si próprios.
Outra descoberta notável foi o facto de os utilizadores com acesso a ferramentas de IA generativas tenderam a produzir “um conjunto menos diversificado de resultados para a mesma tarefa” em comparação com aqueles sem esse acesso.
Ou seja, se estiver a utilizar uma ferramenta de IA para completar uma tarefa, estará limitado ao que essa ferramenta pode gerar com base nos seus dados de treino. Estas ferramentas não são máquinas de ideias infinitas, apenas conseguem trabalhar com o que têm, pelo que se confirma que os seus resultados sejam mais homogéneos. Os investigadores aferem que esta falta de resultados diversos poderia ser interpretada como uma “deterioração do pensamento crítico” dos trabalhadores.
O estudo não contesta a ideia de que há situações em que as ferramentas de IA podem melhorar a eficiência, mas levanta sinais de alerta sobre as consequências. Ao recorrer à IA, os trabalhadores começam a perder a memória muscular que desenvolveram ao completarem determinadas tarefas por conta própria. Começam a externalizar não só o trabalho em si, mas também o seu envolvimento crítico com o mesmo, assumindo que a máquina já está pronta para lidar com ele.