La búsqueda incesante de la inteligencia artificial general (AGI, por sus siglas en inglés) –una IA que rivaliza o supera las capacidades cognitivas humanas– se enfrenta a un escrutinio cada vez mayor por parte de destacados investigadores, formuladores de políticas y figuras públicas. Más de 700 personas destacadas firmaron una declaración pidiendo una pausa en el desarrollo de la superinteligencia de IA hasta que se establezcan medidas de seguridad verificables y un amplio consenso público.
La creciente alarma sobre el crecimiento descontrolado de la IA
La principal preocupación no son los beneficios potenciales de la IA; se trata de la velocidad y la falta de supervisión en su desarrollo. El rápido avance hacia la AGI plantea riesgos que van desde la perturbación económica y la erosión de las libertades individuales hasta amenazas existenciales. Esto no es una hipotética alarmismo. Incluso algunos de los pioneros en la investigación de la IA, como Yoshua Bengio y Geoffrey Hinton (apodados “padrinos de la IA”), expresan ahora serias reservas.
La declaración publicada el jueves destaca los peligros de crear sistemas de inteligencia artificial que podrían superar la inteligencia humana sin las salvaguardias adecuadas. Elon Musk, un crítico vocal del desarrollo desenfrenado de la IA, advirtió anteriormente que el campo está “convocando a un demonio”. Él y otros líderes tecnológicos hicieron un llamado similar para una pausa en 2023.
La opinión pública refleja un profundo escepticismo
El debate no se limita a los círculos tecnológicos. Una encuesta nacional reciente realizada por el Future of Life Institute revela que sólo el 5% de los estadounidenses apoya la trayectoria actual, rápida y no regulada hacia la superinteligencia. Una gran mayoría (64%) cree que el desarrollo debería detenerse hasta que se demuestre que la seguridad y el control están demostrados, mientras que el 73% aboga por una regulación más estricta de los sistemas avanzados de IA.
¿Qué sigue?
La declaración sigue abierta a firmas (actualmente cuenta con más de 27.700), lo que indica un movimiento creciente que exige precaución. La pregunta ahora es si los desarrolladores prestarán atención a estas advertencias o seguirán acelerando hacia un futuro en el que los riesgos potenciales de la IA puedan superar sus beneficios. Este debate no se trata simplemente de tecnología; se trata del futuro de la agencia humana y la seguridad.

























