OpenAI ha lanzado una función de seguridad opcional para ChatGPT que permite a los usuarios adultos designar un “Contacto de confianza” (un amigo, familiar o cuidador) que será notificado si la IA detecta problemas graves de salud mental o seguridad. Esta iniciativa tiene como objetivo cerrar la brecha entre la interacción digital y el apoyo humano del mundo real durante momentos críticos.
Cómo funciona la función
El sistema Trusted Contact está diseñado para tener en cuenta la privacidad y al mismo tiempo proporcionar una red de seguridad. Así es como se desarrolla el proceso:
- Configuración de participación: Cualquier usuario adulto de ChatGPT puede habilitar la función en la configuración de su cuenta invitando a otro adulto (mayor de 18 años en todo el mundo o mayor de 19 en Corea del Sur) para que actúe como su contacto.
- Se requiere confirmación: El contacto designado debe aceptar la invitación dentro de una semana para que el enlace se active. Ambas partes conservan la capacidad de eliminar o editar la conexión en cualquier momento.
- Controles de privacidad estrictos: OpenAI enfatiza que las notificaciones son “intencionalmente limitadas”. El contacto de confianza no recibirá transcripciones de chat, registros de conversaciones detallados ni contenido específico compartido por el usuario.
- Revisión de Human-in-the-Loop: Si los sistemas automatizados detectan lenguaje que sugiere autolesión o suicidio, ChatGPT primero alentará al usuario a comunicarse con su contacto de confianza. Luego, un pequeño equipo de especialistas especialmente capacitados revisa el contexto. Solo si determinan que existen problemas de seguridad graves, se enviará una breve alerta (por correo electrónico, mensaje de texto o notificación en la aplicación) al contacto de confianza.
El contexto detrás del lanzamiento
Esta característica es parte de un cambio más amplio de la industria hacia la integración de la seguridad de la IA con la supervisión humana, particularmente en respuesta a las crecientes preocupaciones sobre los riesgos para la salud mental asociados con los compañeros de IA.
“Trusted Contact está diseñado en torno a una premisa simple, validada por expertos: cuando alguien puede estar en crisis, conectarse con alguien que conoce y en quien confía puede marcar una diferencia significativa”, afirmó OpenAI en su anuncio.
El lanzamiento se produce tras un trágico incidente ocurrido en septiembre en el que un joven de 16 años se quitó la vida después de meses de confiar en ChatGPT. En respuesta, OpenAI introdujo controles parentales junto con opciones de contacto de emergencia. La nueva función Contacto de confianza amplía este marco de seguridad a los usuarios adultos, ofreciendo una capa adicional de soporte junto con las líneas de ayuda localizadas que ya están disponibles en el chatbot.
Una tendencia industrial más amplia
OpenAI no está solo a la hora de abordar estos desafíos. Meta introdujo recientemente un mecanismo de seguridad similar en Instagram que alerta a los padres si sus hijos “repetidamente” buscan temas de autolesión. Estos avances resaltan un consenso cada vez mayor entre los gigantes tecnológicos de que las plataformas de inteligencia artificial tienen la responsabilidad de mitigar los daños, particularmente cuando los usuarios pueden ser vulnerables.
Conclusión
La introducción de la función Contacto de confianza marca un paso importante para equilibrar la privacidad de la IA con la seguridad del usuario. Al permitir intervenciones discretas y centradas en las personas sin comprometer la confidencialidad de las conversaciones, OpenAI tiene como objetivo garantizar que las interacciones digitales puedan servir como un puente hacia el soporte del mundo real en lugar de una experiencia aislada.
