A IA pode colocar a humanidade em perigo em cinco anos, alerta o ex-CEO da Google

A Inteligência Artificial (IA) tem sido a grande descoberta do ano, já que, em poucos meses, a quantidade de serviços e aplicações disponibilizadas por esta tecnologia para facilitar a vida das pessoas aumentou. No entanto, como tudo na vida, há um lado menos bom à volta da IA, ​​com o qual nem mesmo os especialistas concordam, mas que pode ser assustador, avança o El Economista.

 

Já passou pouco mais de um ano desde a chegada do ChatGPT, a IA que deu início à onda de novos projectos e plataformas impulsionadas por esta tecnologia, e embora o leque de vantagens seja amplo, os perigos que representa também não ficam atrás.

E não se trata das ferramentas e facilidades que esta tecnologia oferece aos cibercriminosos, mas sim as preocupações dos especialistas e membros do sector que estão mais focadas no quão inteligente a IA pode ser a ponto de ganhar consciência e deixar de prestar atenção ao que os humanos lhe dizem.

O último a manifestar esta preocupação foi o ex-CEO da Google, Eric Schmidt, que assegurou que, actualmente, não existem barreiras para impedir a IA de causar «danos catastróficos».

Durante o seu discurso numa cimeira organizada pela Axios, Schmidt, que agora preside a Comissão de Segurança Nacional sobre IA, comparou esta tecnologia às bombas atómicas que os Estados Unidos lançaram sobre o Japão em 1945.

«Depois de Nagasaki e Hiroshima, foram necessários 18 anos para chegar a um tratado de proibição de testes nucleares. Hoje não temos tanto tempo», afirmou Schmidt recordando que ainda vamos a tempo de regulamentar a IA de forma a poder controlá-la, como centenas de especialistas, investigadores e pessoas do sector (incluindo Elon Musk) já solicitaram numa carta.

Um tema controverso

A verdade é que desde o aparecimento da IA, este tema não saiu da mesa de reguladores e especialistas e o pior de tudo é que o consenso está longe de ser alcançado. De um lado, um grupo, que inclui Sam Altman (CEO e fundador da OpenAI), pretende explorar ao máximo e até ao fim as possibilidades da IA. Estes são mais a favor de ver até onde vai o limite das capacidades desta tecnologia e, então aí, tentar regular e controlar o que ela pode ou não fazer.

Do outro lado, onde agora também se posiciona o antigo CEO da Google, está o grupo que se preocupa com o avanço demasiado rápido desta tecnologia sem que as ferramentas para a controlar se desenvolvam à mesma velocidade.

Para Schmidt, o mais preocupante será «o momento em que o computador pode começar a tomar as suas próprias decisões para fazer coisas», e se forem capazes de aceder a sistemas de armamento ou alcançar outras capacidades, as máquinas poderão, como o ex- CEO advertiu, enganar os humanos a esse respeito.

Ler Mais