OpenAI heeft een optionele veiligheidsfunctie voor ChatGPT gelanceerd waarmee volwassen gebruikers een “vertrouwd contact” kunnen aanwijzen (een vriend, familielid of verzorger) die op de hoogte wordt gesteld als de AI ernstige zorgen over de geestelijke gezondheid of de veiligheid detecteert. Dit initiatief heeft tot doel de kloof te overbruggen tussen digitale interactie en menselijke ondersteuning in de echte wereld tijdens kritieke momenten.

Hoe de functie werkt

Het Trusted Contact -systeem is ontworpen om privacybewust te zijn en tegelijkertijd een vangnet te bieden. Hier ziet u hoe het proces zich ontvouwt:

  • Opt-in-configuratie: Elke volwassen ChatGPT-gebruiker kan de functie inschakelen in zijn accountinstellingen door een andere volwassene (18+ wereldwijd, of 19+ in Zuid-Korea) uit te nodigen als contactpersoon.
  • Bevestiging vereist: De aangewezen contactpersoon moet de uitnodiging binnen een week accepteren voordat de link actief wordt. Beide partijen behouden te allen tijde de mogelijkheid om de verbinding te verwijderen of te bewerken.
  • Strikte privacycontroles: OpenAI benadrukt dat meldingen “opzettelijk beperkt.” De vertrouwde contactpersoon zal geen chattranscripties, gedetailleerde gesprekslogboeken of specifieke inhoud ontvangen die door de gebruiker wordt gedeeld.
  • Human-in-the-Loop Review: Als geautomatiseerde systemen taal detecteren die duidt op zelfbeschadiging of zelfmoord, zal ChatGPT de gebruiker eerst aanmoedigen contact op te nemen met zijn vertrouwde contactpersoon. Een klein team van speciaal opgeleide specialisten bekijkt vervolgens de context. Alleen als ze vaststellen dat er ernstige veiligheidsproblemen zijn, wordt er een korte waarschuwing (via e-mail, sms of in-app-melding) naar de vertrouwde contactpersoon gestuurd.

De context achter de lancering

Deze functie maakt deel uit van een bredere verschuiving in de sector naar het integreren van AI-veiligheid met menselijk toezicht, vooral als reactie op de groeiende bezorgdheid over de geestelijke gezondheidsrisico’s die gepaard gaan met AI-metgezellen.

“Trusted Contact is ontworpen rond een eenvoudig, door experts gevalideerd uitgangspunt: wanneer iemand zich in een crisis bevindt, kan verbinding maken met iemand die hij kent en vertrouwt een betekenisvol verschil maken”, aldus OpenAI in de aankondiging.

De lancering volgt op een tragisch incident in september waarbij een 16-jarige zelfmoord pleegde nadat hij ChatGPT maandenlang in vertrouwen had genomen. Als reactie daarop introduceerde OpenAI ouderlijk toezicht naast contactopties voor noodgevallen. De nieuwe functie Vertrouwd contact breidt dit veiligheidsframework uit naar volwassen gebruikers en biedt een extra ondersteuningslaag naast de gelokaliseerde hulplijnen die al beschikbaar zijn binnen de chatbot.

Een bredere trend in de sector

OpenAI is niet de enige die deze uitdagingen aangaat. Meta heeft onlangs een soortgelijk veiligheidsmechanisme op Instagram geïntroduceerd dat ouders waarschuwt als hun kinderen “herhaaldelijk” zoeken naar onderwerpen over zelfbeschadiging. Deze ontwikkelingen benadrukken een groeiende consensus onder technologiegiganten dat AI-platforms een verantwoordelijkheid dragen om de schade te beperken, vooral wanneer gebruikers mogelijk kwetsbaar zijn.

Conclusie

De introductie van de functie Vertrouwd contact markeert een belangrijke stap in het balanceren van AI-privacy en gebruikersveiligheid. Door discrete, mensgerichte interventies mogelijk te maken zonder de vertrouwelijkheid van gesprekken in gevaar te brengen, wil OpenAI ervoor zorgen dat digitale interacties kunnen dienen als een brug naar ondersteuning in de echte wereld in plaats van als een geïsoleerde ervaring.