OpenAI a lancé une fonctionnalité de sécurité facultative pour ChatGPT qui permet aux utilisateurs adultes de désigner un « Contact de confiance » (un ami, un membre de la famille ou un soignant) qui sera averti si l’IA détecte de graves problèmes de santé mentale ou de sécurité. Cette initiative vise à combler le fossé entre l’interaction numérique et le soutien humain réel pendant les moments critiques.

Comment fonctionne la fonctionnalité

Le système Trusted Contact est conçu pour respecter la confidentialité tout en offrant un filet de sécurité. Voici comment se déroule le processus :

  • Configuration de l’inscription : Tout utilisateur adulte de ChatGPT peut activer la fonctionnalité dans les paramètres de son compte en invitant un autre adulte (18 ans et plus dans le monde ou 19 ans et plus en Corée du Sud) à servir de contact.
  • Confirmation requise : Le contact désigné doit accepter l’invitation dans un délai d’une semaine pour que le lien devienne actif. Les deux parties conservent la possibilité de supprimer ou de modifier la connexion à tout moment.
  • Contrôles de confidentialité stricts : OpenAI souligne que les notifications sont “intentionnellement limitées.” Le contact de confiance ne recevra pas de transcriptions de discussion, de journaux de conversation détaillés ou de contenu spécifique partagé par l’utilisateur.
  • Examen Human-in-the-Loop : Si les systèmes automatisés détectent un langage suggérant l’automutilation ou le suicide, ChatGPT encouragera d’abord l’utilisateur à contacter son contact de confiance. Une petite équipe de spécialistes spécialement formés examine ensuite le contexte. Ce n’est que s’ils déterminent qu’il existe de graves problèmes de sécurité qu’une brève alerte (par e-mail, SMS ou notification dans l’application) sera envoyée au contact de confiance.

Le contexte derrière le lancement

Cette fonctionnalité fait partie d’un changement plus large de l’industrie vers l’intégration de la sécurité de l’IA à la surveillance humaine, en particulier en réponse aux préoccupations croissantes concernant les risques pour la santé mentale associés aux compagnons de l’IA.

« Trusted Contact est conçu autour d’un principe simple et validé par des experts : lorsqu’une personne est en crise, se connecter avec quelqu’un qu’elle connaît et en qui elle a confiance peut faire une différence significative », a déclaré OpenAI dans son annonce.

Le lancement fait suite à un incident tragique survenu en septembre au cours duquel un jeune de 16 ans s’est suicidé après des mois de confidences à ChatGPT. En réponse, OpenAI a introduit le contrôle parental ainsi que les options de contact d’urgence. La nouvelle fonctionnalité Trusted Contact étend ce cadre de sécurité aux utilisateurs adultes, offrant une couche d’assistance supplémentaire aux côtés des lignes d’assistance localisées déjà disponibles dans le chatbot.

Une tendance plus large du secteur

OpenAI n’est pas le seul à relever ces défis. Meta a récemment introduit un mécanisme de sécurité similaire sur Instagram qui alerte les parents si leurs enfants recherchent ** “à plusieurs reprises” ** des sujets d’automutilation. Ces évolutions mettent en évidence un consensus croissant parmi les géants de la technologie selon lequel les plateformes d’IA ont la responsabilité d’atténuer les dommages, en particulier lorsque les utilisateurs peuvent être vulnérables.

Conclusion

L’introduction de la fonctionnalité Trusted Contact marque une étape importante dans l’équilibre entre la confidentialité de l’IA et la sécurité des utilisateurs. En permettant des interventions discrètes et centrées sur l’humain sans compromettre la confidentialité des conversations, OpenAI vise à garantir que les interactions numériques peuvent servir de pont vers une assistance dans le monde réel plutôt que comme une expérience isolée.