Especialistas da ONU consideram que desenvolvimentos e riscos da IA não podem ser deixados “aos caprichos” do mercado
O desenvolvimento da inteligência artificial (IA) e os riscos associados não podem ser deixados «aos caprichos» do mercado, alertaram especialistas da ONU, que defendem ferramentas de cooperação internacional em vez de uma agência de governação global.
Em Outubro do ano passado, o secretário-geral das Nações Unidas lançou um órgão consultivo multissectorial de alto nível sobre IA, que junta representantes do Norte Global, Sul Global, academia, sector privado e decisores políticos, para ajudá-lo nas questões da IA e o futuro da sua governação global.
O relatório final, publicado a poucos dias da «Cimeira para o Futuro», em Nova Iorque, constata, sem surpresa, «o défice na governação global em questões de IA» e a quase exclusão dos países em desenvolvimento das discussões sobre um assunto existencial.
Dos 193 Estados-membros da ONU, apenas sete fazem parte de sete grandes iniciativas ligadas à governação da IA (no âmbito da OCDE, do G20 ou do Conselho da Europa), e 118 estão completamente ausentes, principalmente países do sul.
No entanto, a própria natureza «transfronteiriça» destas tecnologias «requer uma abordagem global», insiste o órgão consultivo.
«A IA deve servir a humanidade de forma justa e segura», reiterou António Guterres esta semana. «Se não forem controlados, os perigos representados pela inteligência artificial poderão ter implicações graves para a democracia, a paz e a estabilidade».
Os especialistas destacam o papel «crucial» dos governos nesta matéria.
Neste contexto, o comité de especialistas apela aos Estados-membros da ONU para que implementem ferramentas para uma melhor cooperação global, incentivem o progresso da humanidade e evitem retrocessos, porque «ninguém» pode prever a evolução destas tecnologias e quem toma as decisões não é responsável pelo desenvolvimento e utilização de sistemas «que não compreende».
Nestas circunstâncias, «o desenvolvimento, a implantação e a utilização de tal tecnologia não podem ser deixados apenas aos caprichos dos mercados», advertem, sublinhando o papel «crucial» dos governos e das organizações regionais.
Sugerem a criação de um grupo internacional de peritos científicos em IA, inspirado no modelo dos peritos climáticos da ONU (IPCC) cujos relatórios são uma referência no tema.
Estes cientistas esclareceriam a comunidade internacional sobre os riscos emergentes, áreas onde é necessária investigação adicional ou identificariam como certas tecnologias poderiam ajudar a cumprir os Objectivos de Desenvolvimento Sustentável (eliminação da fome, pobreza, igualdade de género, clima).
Esta ideia é retomada no projecto do Pacto Digital Global, ainda em discussão, que deverá ser adoptado no domingo pelos 193 Estados-membros da ONU durante a «Cimeira do Futuro».
Os especialistas sugerem ainda o estabelecimento de um diálogo político intergovernamental regular sobre o assunto e de um fundo para ajudar os países mais atrasados.
Para interligar as diferentes ferramentas, os especialistas apelam à criação de uma estrutura leve no seio do secretariado da ONU em vez da ideia de criar uma agência de governação global, referida por Guterres, tendo como modelo a Agência Internacional de Energia Atómica (AIEA).
Embora o mandato exigisse que explorassem esta possibilidade, «não recomendamos nesta fase a criação de uma agência deste tipo», referem.
«Se os riscos da IA se tornarem mais graves e mais concentrados, poderá ser necessário que os Estados-membros considerem uma instituição internacional mais robusta, com poderes de monitorização, comunicação, verificação e aplicação», afirmam.
Mesmo que observem que a elaboração de uma lista exaustiva de riscos é uma «causa perdida» num sector em rápido desenvolvimento cuja evolução ninguém pode prever, enumeram, no entanto, certos perigos identificados: desinformação que ameaça a democracia, ‘deepfakes’ mais pessoais (sexuais em particular), violações dos direitos humanos, armas autónomas, utilizadas por grupos criminosos ou terroristas.
«Dada a velocidade, autonomia e opacidade dos sistemas de IA, esperar que surja uma ameaça pode significar que já é tarde demais para responder», admitem, contando com a avaliação e constantes intercâmbios científicos e políticos para que o «mundo não seja tomado de surpresa».