Das unermüdliche Streben nach künstlicher allgemeiner Intelligenz (AGI) – KI, die mit den kognitiven Fähigkeiten des Menschen mithalten oder diese sogar übertreffen kann – wird von führenden Forschern, politischen Entscheidungsträgern und Persönlichkeiten des öffentlichen Lebens zunehmend unter die Lupe genommen. Über 700 prominente Persönlichkeiten haben eine Erklärung unterzeichnet, in der sie eine Pause bei der Entwicklung der KI-Superintelligenz fordern, bis überprüfbare Sicherheitsmaßnahmen und ein breiter öffentlicher Konsens vorhanden sind.
Der zunehmende Alarm wegen unkontrolliertem KI-Wachstum
Das Hauptanliegen betrifft nicht die potenziellen Vorteile der KI; Es geht um die Geschwindigkeit und den Mangel an Kontrolle in seiner Entwicklung. Der rasche Fortschritt in Richtung AGI birgt Risiken, die von wirtschaftlichen Störungen und der Erosion individueller Freiheiten bis hin zu existenziellen Bedrohungen reichen. Dies ist keine hypothetische Panikmache. Sogar einige der Pioniere der KI-Forschung, wie Yoshua Bengio und Geoffrey Hinton (die als „Paten der KI“ bezeichnet werden), äußern mittlerweile ernsthafte Vorbehalte.
Die am Donnerstag veröffentlichte Erklärung unterstreicht die Gefahren der Schaffung von KI-Systemen, die ohne angemessene Schutzmaßnahmen die menschliche Intelligenz übertreffen könnten. Elon Musk, ein lautstarker Kritiker der ungebremsten KI-Entwicklung, hat zuvor gewarnt, dass das Feld „einen Dämon beschwört“. Er und andere Technologieführer riefen in ähnlicher Weise zu einer Pause im Jahr 2023 auf.
Die öffentliche Meinung spiegelt tiefe Skepsis wider
Die Debatte ist nicht auf Technologiekreise beschränkt. Eine aktuelle landesweite Umfrage des Future of Life Institute zeigt, dass nur 5 % der Amerikaner den aktuellen, schnellen und unregulierten Weg zur Superintelligenz unterstützen. Eine große Mehrheit – 64 % – glaubt, dass die Entwicklung gestoppt werden sollte, bis Sicherheit und Kontrolle nachweislich nachgewiesen sind, während 73 % eine strengere Regulierung fortschrittlicher KI-Systeme befürworten.
Was kommt als nächstes?
Die Erklärung kann weiterhin unterzeichnet werden (derzeit über 27.700), was auf eine wachsende Bewegung hindeutet, die zur Vorsicht aufruft. Die Frage ist nun, ob Entwickler diese Warnungen beherzigen oder weiter auf eine Zukunft zusteuern, in der die potenziellen Risiken der KI ihre Vorteile überwiegen könnten. In dieser Debatte geht es nicht nur um Technologie; Es geht um die Zukunft der menschlichen Handlungsfähigkeit und Sicherheit.
