Internacional: Como a IA pode ampliar as competências humanas?

Em vez de abraçar a noção de que os robôs irão ultrapassar os humanos e (“singularidade”), Ken Goldberg defende que as novas tecnologias e as pessoas podem trabalhar em parceria para objectivos humanos (“multiplicidade”).  

 

Por Ken Goldberg, entrevistado por Frieda Klotz.

 

Embora os sistemas de inteligência artificial (IA) se estejam já a tornar uma parte da vida diária, nos últimos debates sobre a IA e o futuro do trabalho estes ganharam uma noção de premência. O falecido Stephen Kawking temia que os humanos não fossem capazes de competir e que fossem ultrapassados pelas máquinas, enquanto Elon Musk, fundador da Tesla, sugeriu que a competição na IA levaria à Terceira Guerra Mundial. O “The Economist” reportou, no início deste ano, que quase metade dos empregos em 32 países desenvolvidos inquiridos pela Organização da Cooperação e Desenvolvimento Económico (OCDE) estava vulnerável à automatização, declarando que «uma vaga de ansiedade pela automatização varreu o Ocidente».

Ken Goldberg, professor e director de departamento de Engenharia Industrial e Operações na UC Berkeley, recusa tudo isso. Em vez de abraçar a noção de que os robôs irão ultrapassar os humanos e substituir-nos na força de trabalho (um conceito referido como “singularidade”), ele defende a “multiplicidade” – uma visão híbrida que mostra como as novas tecnologias e as pessoas podem trabalhar em parceria para objectivos humanos. De certa forma, afirma, é assim que a IA está a começar a funcionar.

Frieda Klotz (FK), correspondente da “MIT Sloan Management Review”, falou com Ken Goldberg (KG) sobre um futuro em que a IA é um complemento, e não uma ameaça, aos colaboradores. O que se segue é uma versão editada e condensada do diálogo.

 

FK: Quais as áreas da robótica em que o seu laboratório está actualmente a trabalhar?

KG: Estamos a desenvolver um software para que os robôs cumpram tarefas tão abrangentes como a execução de encomendas de armazém, a organização doméstica e cirurgias assistidas. O que é comum a todo o trabalho que estamos a fazer é a ideia de algoritmos e aprendizagem para robôs, melhorando a nossa capacidade de analisar dados e exemplos, e depois usando isso para desenvolver políticas – ou modelos – de controlo para os movimentos dos robôs.

Há 35 anos que trabalhamos para que os robôs agarrem nos objectos com segurança. É fácil para os humanos, mas é um problema para os robôs. Basicamente, todos os robôs são desastrados, e é um grande desafio se queremos desenvolver um que arrume uma casa ou organize caixas num armazém.

FK: Pode falar do seu conceito de multiplicidade?

KG: As pessoas continuam a dizer que estamos à beira de uma transição, a singularidade, em que os computadores dominarão o mundo. Há a ideia de que a IA é uma tecnologia mágica que vai transformar indústrias e substituir humanos, colocando pessoas no desemprego. Mas não estamos sequer perto desse ponto.

Há tecnologias realmente boas e muitos desenvolvimentos interessantes e, em certos domínios, as máquinas podem ser melhores que os humanos, como por exemplo na precisão: são boas a calcular números e a reconhecer padrões. Mas há vários domínios em que as máquinas, principalmente os robôs, não são boas. O robô com a técnica de agarrar mais avançada não tem a destreza de uma criança de três anos. Temo que as pessoas tenham expectativas que estão longe da realidade actual – e que isso nos distraia daquilo que nos devia preocupar e que devíamos planear. Foi isso que me levou à multiplicidade, à ideia de que veremos novas parcerias entre equipas de humanos e máquinas. Na verdade, a maioria dos sistemas que usamos nasce da interacção humana. E isto já acontece todos os dias – por exemplo quando, ao clicarmos nos resultados, damos ao algoritmo de pesquisa do Google, o feedback que este depois usa para aperfeiçoar resultados futuros.

A multiplicidade exige diversidade. Se olharmos para uma forma de pensar chamada teoria dos conjuntos, podemos provar que a diversidade é útil para um sistema de aprendizagem das máquinas. A relação é algo que se pode formular matematicamente. Isso é muito emocionante, porque é consistente com aquilo que estamos a começar a descobrir sobre os grupos de humanos: se tivermos um grupo diversificado de pessoas, obtemos ideias melhores e mais criativas, mais perspectivas e melhores resultados.

 

FK: Veremos então diferentes tipos de diversidade – não apenas entre pessoas, mas com pessoas e robôs a reunirem esforços.

GK: Exactamente. Qualidades como intuição, empatia, criatividade, são todas muito humanas – somos muito bons a olhar para situações holísticas e generalizações – e podemos misturar essas qualidades com a precisão que as máquinas oferecem.

Devíamos estar a celebrar isto, porque leva, literalmente, a melhores decisões e melhores processos.

 

FK: Nos próximos anos, como é que a robótica pode não ser tão útil como as pessoas esperam?

GK: As pessoas afirmam que vamos ter camiões autónomos, que acabarão com os camionistas. Dizem isto também sobre os motoristas da Uber e da Lyft, mas isso não vai acontecer.

Vamos fazer algum progresso; é possível passar hoje por grandes partes de uma auto-estrada com um sistema robótico. Mas há tantas complexidades na condução em cidade ou nos subúrbios, que será muito mais difícil, principalmente num camião, porque há ruas estreitas e sinuosas. Vamos precisar de camionistas humanos para um futuro previsível – para o resto da minha vida e da vida dos meus filhos.

Outro exemplo é que alguns afirmam que não há qualquer futuro para os jornalistas. Os sistemas computorizados recebem dados sobre eventos desportivos e criam histórias, que se lêem bem. Isso acontece porque conseguem identificar padrões e colocar números e resultados nesses padrões, e isso funciona até certo ponto. Mas as máquinas não têm a capacidade de pegar no que é realmente interessante num evento desportivo, as nuances particulares do que se passa, ou fazer analogias sobre o que as equipas estão a fazer.

Leia o artigo na íntegra na edição de Janeiro da Human Resources, nas bancas.

Veja também estes artigos.

Ler Mais