OpenAI hat eine optionale Sicherheitsfunktion für ChatGPT eingeführt, die es erwachsenen Benutzern ermöglicht, einen „vertrauenswürdigen Kontakt“ – einen Freund, ein Familienmitglied oder einen Betreuer – zu bestimmen, der benachrichtigt wird, wenn die KI schwerwiegende Bedenken hinsichtlich der psychischen Gesundheit oder Sicherheit erkennt. Diese Initiative zielt darauf ab, die Lücke zwischen digitaler Interaktion und menschlicher Unterstützung in der realen Welt in kritischen Momenten zu schließen.
So funktioniert die Funktion
Das Trusted Contact -System ist auf Datenschutz ausgelegt und bietet gleichzeitig ein Sicherheitsnetz. So läuft der Prozess ab:
- Opt-in-Einrichtung: Jeder erwachsene ChatGPT-Benutzer kann die Funktion in seinen Kontoeinstellungen aktivieren, indem er einen anderen Erwachsenen (18+ weltweit oder 19+ in Südkorea) als Kontakt einlädt.
- Bestätigung erforderlich: Der angegebene Kontakt muss die Einladung innerhalb einer Woche annehmen, damit der Link aktiv wird. Beide Parteien behalten die Möglichkeit, die Verbindung jederzeit zu entfernen oder zu bearbeiten.
- Strenge Datenschutzkontrollen: OpenAI betont, dass Benachrichtigungen „absichtlich eingeschränkt“ sind. Der vertrauenswürdige Kontakt erhält keine Chat-Transkripte, detaillierte Konversationsprotokolle oder bestimmte vom Benutzer geteilte Inhalte.
- Human-in-the-Loop-Überprüfung: Wenn automatisierte Systeme eine Sprache erkennen, die auf Selbstverletzung oder Selbstmord hindeutet, fordert ChatGPT den Benutzer zunächst auf, sich an seinen vertrauenswürdigen Kontakt zu wenden. Anschließend prüft ein kleines Team aus speziell ausgebildeten Spezialisten den Kontext. Nur wenn sie feststellen, dass ernsthafte Sicherheitsbedenken bestehen, wird eine kurze Warnung (per E-Mail, SMS oder In-App-Benachrichtigung) an den vertrauenswürdigen Kontakt gesendet.
Der Kontext hinter der Einführung
Diese Funktion ist Teil eines umfassenderen Branchenwandels hin zur Integration der KI-Sicherheit in die menschliche Aufsicht, insbesondere als Reaktion auf die wachsende Besorgnis über psychische Gesundheitsrisiken im Zusammenhang mit KI-Begleitern.
„Trusted Contact basiert auf einer einfachen, von Experten bestätigten Prämisse: Wenn sich jemand in einer Krise befindet, kann die Verbindung mit jemandem, den er kennt und dem er vertraut, einen bedeutenden Unterschied machen“, erklärte OpenAI in seiner Ankündigung.
Der Start erfolgte nach einem tragischen Vorfall im September, bei dem sich ein 16-Jähriger das Leben nahm, nachdem er sich monatelang ChatGPT anvertraut hatte. Als Reaktion darauf führte OpenAI neben Notfallkontaktoptionen auch Kindersicherungen ein. Die neue Funktion Vertrauenswürdiger Kontakt erweitert diesen Sicherheitsrahmen auf erwachsene Benutzer und bietet neben den bereits im Chatbot verfügbaren lokalisierten Helplines eine zusätzliche Supportebene.
Ein breiterer Branchentrend
OpenAI ist nicht der Einzige, der diese Herausforderungen angeht. Meta hat kürzlich einen ähnlichen Sicherheitsmechanismus auf Instagram eingeführt, der Eltern warnt, wenn ihre Kinder „wiederholt“ nach Themen zur Selbstverletzung suchen. Diese Entwicklungen verdeutlichen den wachsenden Konsens unter Technologiegiganten, dass KI-Plattformen die Verantwortung tragen, Schäden zu mindern, insbesondere wenn Benutzer möglicherweise gefährdet sind.
Fazit
Die Einführung der Funktion „Vertrauenswürdiger Kontakt“ stellt einen wichtigen Schritt dar, um den KI-Datenschutz mit der Benutzersicherheit in Einklang zu bringen. Durch die Ermöglichung diskreter, menschenzentrierter Interventionen ohne Beeinträchtigung der Gesprächsvertraulichkeit möchte OpenAI sicherstellen, dass digitale Interaktionen als Brücke zur Unterstützung in der realen Welt dienen können und nicht als isolierte Erfahrung.
