OpenAI ha lanciato una funzionalità di sicurezza opzionale per ChatGPT che consente agli utenti adulti di designare un “contatto fidato” —un amico, un familiare o un assistente—che verrà avvisato se l’IA rileva gravi problemi di salute mentale o sicurezza. Questa iniziativa mira a colmare il divario tra l’interazione digitale e il supporto umano nel mondo reale durante i momenti critici.
Come funziona la funzionalità
Il sistema Contatto fidato è progettato per rispettare la privacy e fornire allo stesso tempo una rete di sicurezza. Ecco come si svolge il processo:
- Configurazione di attivazione: Qualsiasi utente adulto di ChatGPT può abilitare la funzione nelle impostazioni del proprio account invitando un altro adulto (18+ a livello globale o 19+ in Corea del Sud) a fungere da contatto.
- Conferma richiesta: Il contatto designato deve accettare l’invito entro una settimana affinché il collegamento diventi attivo. Entrambe le parti mantengono la possibilità di rimuovere o modificare la connessione in qualsiasi momento.
- Rigorosi controlli sulla privacy: OpenAI sottolinea che le notifiche sono “intenzionalmente limitate.” Il contatto fidato non riceverà trascrizioni di chat, registri dettagliati delle conversazioni o contenuti specifici condivisi dall’utente.
- Revisione Human-in-the-Loop: se i sistemi automatizzati rilevano linguaggio che suggerisce autolesionismo o suicidio, ChatGPT incoraggerà innanzitutto l’utente a contattare il proprio contatto di fiducia. Un piccolo team di specialisti appositamente formati esamina quindi il contesto. Solo se determinano che ci sono seri problemi di sicurezza, verrà inviato un breve avviso (tramite email, SMS o notifica in-app) al contatto fidato.
Il contesto dietro il lancio
Questa caratteristica fa parte di un più ampio spostamento del settore verso l’integrazione della sicurezza dell’IA con la supervisione umana, in particolare in risposta alle crescenti preoccupazioni sui rischi per la salute mentale associati ai compagni di intelligenza artificiale.
“Trusted Contact è progettato attorno a una premessa semplice e convalidata da esperti: quando qualcuno potrebbe essere in crisi, connettersi con qualcuno che conosce e di cui si fida può fare una differenza significativa”, ha affermato OpenAI nel suo annuncio.
Il lancio segue un tragico incidente avvenuto a settembre in cui un sedicenne si è tolto la vita dopo essersi confidato per mesi con ChatGPT. In risposta, OpenAI ha introdotto il controllo parentale insieme alle opzioni di contatto di emergenza. La nuova funzionalità Contatto fidato espande questo quadro di sicurezza agli utenti adulti, offrendo un ulteriore livello di supporto insieme alle linee di assistenza localizzate già disponibili all’interno del chatbot.
Una tendenza del settore più ampia
OpenAI non è il solo ad affrontare queste sfide. Meta ha recentemente introdotto un meccanismo di sicurezza simile su Instagram che avvisa i genitori se i loro figli “ripetutamente” cercano argomenti di autolesionismo. Questi sviluppi evidenziano un crescente consenso tra i giganti della tecnologia sul fatto che le piattaforme di intelligenza artificiale hanno la responsabilità di mitigare i danni, in particolare quando gli utenti possono essere vulnerabili.
Conclusione
L’introduzione della funzionalità Contatto attendibile segna un passo significativo nel bilanciare la privacy dell’IA con la sicurezza dell’utente. Consentendo interventi discreti e incentrati sull’uomo senza compromettere la riservatezza della conversazione, OpenAI mira a garantire che le interazioni digitali possano fungere da ponte verso il supporto nel mondo reale piuttosto che da un’esperienza isolata.
