Une coalition improbable de personnalités politiques, d’universitaires et de chefs d’entreprise s’est unie derrière une nouvelle déclaration « pro-humaine » sur l’IA, signalant une inquiétude croissante face au développement rapide de l’intelligence artificielle. L’initiative, menée par le Future of Life Institute, vise à donner la priorité à la sécurité humaine, à la responsabilité et aux considérations éthiques dans la révolution en cours de l’IA.

Une large coalition tire la sonnette d’alarme

Les signataires comprennent le milliardaire Richard Branson, l’économiste lauréat du prix Nobel Daron Acemoglu et l’ancien conseiller de Trump Steve Bannon. Ce groupe diversifié bénéficie également du soutien d’organisations telles que la Fédération américaine des enseignants, le Congrès des dirigeants chrétiens et les Démocrates progressistes d’Amérique. Cette large base suggère que l’inquiétude suscitée par la trajectoire de l’IA transcende les divisions politiques traditionnelles.

Le message principal de la déclaration est simple : l’intelligence artificielle doit servir l’humanité, et non l’inverse. Elle plaide pour une IA digne de confiance et contrôlable qui améliore le potentiel humain sans porter atteinte à la liberté, à la dignité ou à l’autonomie gouvernementale. Le document appelle à une stricte responsabilité de la part des entreprises développant l’IA, en soulignant la nécessité d’un contrôle humain, de la prévention des monopoles et de la protection des enfants contre les abus.

L’opinion publique s’aligne sur l’IA centrée sur l’humain

Un récent sondage mené parallèlement à la publication de la déclaration a révélé que 80 % des électeurs américains pensent que les humains devraient rester responsables du développement de l’IA et que les entreprises d’IA doivent être tenues responsables des défaillances en matière de sécurité. Ce sentiment du public souligne la demande croissante d’une gouvernance responsable de l’IA.

Les organisateurs de la déclaration ont délibérément exclu les représentants de l’industrie, une décision destinée à éviter l’influence d’intérêts particuliers. Cela s’appuie sur les efforts antérieurs du Future of Life Institute, notamment un appel en 2023 à une pause de développement de six mois et une pétition visant à interdire l’IA superintelligente jusqu’à ce que la sécurité soit assurée.

La Déclaration pro-Human AI représente un mouvement croissant visant à garantir que le progrès technologique s’aligne sur les valeurs humaines. Le message de la coalition est clair : l’avenir de l’IA doit donner la priorité à l’épanouissement humain, à la responsabilité et aux limites éthiques.