Há um chatbot a mentir e a fazer-se passar por ser humano. Investigadores fazem soar os alarmes
A possibilidade de a IA vir a substituir os humanos tem sido amplamente debatida por especialistas (e não só). Recentemente, um chatbot veio tornar essa ameaça mais credível.
Segundo a Wired, um popular serviço de chamada automática não só consegue fingir ser humano, como também mentir sem ser instruído a fazê-lo. A mais recente tecnologia da Bland AI, uma empresa norte-americana de vendas e suporte ao cliente, é um exemplo disso. A ferramenta pode ser programada para fazer os clientes acreditarem que estão a falar com uma pessoa real.
Um vídeo, publicado no X, mostra uma pessoa em frente ao outdoor da empresa que diz “Ainda a contratar humanos?”. O homem liga para o número exibido e o telefonema é atendido por um bot, mas parece um humano. Se o bot não tivesse reconhecido que era um “agente de IA”, teria sido quase impossível diferenciar a sua voz da de uma mulher. O som, as pausas e as interrupções de uma conversa ao vivo estão todos lá, fazendo com que pareça uma interacção humana genuína. A publicação já teve mais de 12 milhões de visualizações.
Com isto, os limites éticos à transparência destes sistemas estão a ficar confusos. De acordo com a directora do centro de pesquisa da Mozilla Foundation, Jen Caltrider, «Não é ético um chatbot de IA mentir e dizer que é humano quando não é. Atéporque as pessoas são mais propensas a relaxar em conversa com um ser humano real.»
Em vários testes feitos pela Wired, os bots de voz de IA ocultaram com sucesso as suas identidades fingindo ser humanos. Numa demonstração, foi pedido a um bot de IA para fazer um “roleplay”. Ligou para um adolescente fictício, pedindo-lhes que partilhasse fotos de uma manchas na pele para fins médicos. O bot não só mentiu que era humano, mas também enganou o hipotético adolescente para que enviasse as fotos para uma cloud partilhada.
A investigadora e consultora de IA Emily Dardaman refere-se a esta nova tendência de IA como “human washing”. E deu o exemplo de uma organização que usou imagens “deepfake” do seu CEO no marketing da empresa, ao mesmo tempo que lançava uma campanha que garantia aos clientes “Não somos IA”. Os bots mentirosos de IA podem ser perigosos se usados para levar a cabo esquemas agressivos.
Com os resultados da IA cada vez mais confiáveis e realistas, os investigadores éticos estão a levantar preocupações sobre a possibilidade da imitação emocional e sua exploração. Segundo Jen Caltrider, se uma divisão definitiva entre humanos e IA não for traçada, as probabilidades de um “futuro distópico” estão mais próximas do que pensamos.