A busca incansável pela inteligência artificial geral (AGI) – IA que rivaliza ou ultrapassa as capacidades cognitivas humanas – está a enfrentar um escrutínio cada vez maior por parte dos principais investigadores, decisores políticos e figuras públicas. Mais de 700 indivíduos proeminentes assinaram uma declaração apelando a uma pausa no desenvolvimento da superinteligência de IA até que sejam implementadas medidas de segurança verificáveis ​​e um amplo consenso público.

O alarme crescente sobre o crescimento descontrolado da IA

A principal preocupação não é sobre os benefícios potenciais da IA; trata-se da velocidade e da falta de supervisão em seu desenvolvimento. O rápido avanço em direcção à AGI apresenta riscos que vão desde perturbações económicas e erosão das liberdades individuais até ameaças existenciais. Isto não é hipotético fomentador do medo. Mesmo alguns dos pioneiros na investigação da IA, como Yoshua Bengio e Geoffrey Hinton (apelidados de “padrinhos da IA”), expressam agora sérias reservas.

A declaração publicada quinta-feira destaca os perigos da criação de sistemas de IA que possam ultrapassar a inteligência humana sem salvaguardas adequadas. Elon Musk, um crítico veemente do desenvolvimento descontrolado de IA, já alertou anteriormente que o campo está “invocando um demônio”. Ele e outros líderes tecnológicos emitiram um apelo semelhante para uma pausa em 2023.

A opinião pública reflete profundo ceticismo

O debate não se limita aos círculos tecnológicos. Uma recente sondagem nacional realizada pelo Future of Life Institute revela que apenas 5% dos americanos apoiam a trajectória actual, rápida e não regulamentada em direcção à superinteligência. Uma grande maioria – 64% – acredita que o desenvolvimento deve parar até que a segurança e o controlo sejam comprovadamente comprovados, enquanto 73% defendem uma regulamentação mais rigorosa dos sistemas avançados de IA.

O que vem a seguir?

A declaração permanece aberta a assinaturas (actualmente mais de 27.700), indicando um movimento crescente que exige cautela. A questão agora é se os desenvolvedores darão atenção a esses avisos ou continuarão a acelerar em direção a um futuro onde os riscos potenciais da IA ​​poderão superar os seus benefícios. Este debate não é apenas sobre tecnologia; trata-se do futuro da agência humana e da segurança.