OpenAI ha dado a conocer una innovadora función de seguridad para su plataforma ChatGPT, que permitirá a los usuarios adultos designar un "contacto de confianza". Esta herramienta tiene como objetivo enviar alertas a personas cercanas en situaciones que puedan implicar autolesiones o crisis emocionales serias. La función, denominada 'Trusted Contact', representa un paso significativo en el acompañamiento de los usuarios que buscan apoyo en momentos de vulnerabilidad.

La nueva opción estará disponible de manera opcional y permitirá a los usuarios seleccionar a un amigo, familiar o cuidador para recibir notificaciones en caso de que el sistema detecte patrones de conversación que indiquen un riesgo potencial. Antes de enviar cualquier aviso, se realizará una revisión exhaustiva por parte de un equipo especializado que evaluará la situación para determinar si es pertinente activar la alerta. Esto asegura que las notificaciones sean enviadas de manera responsable y justificada.

Esta iniciativa de OpenAI subraya un cambio en el uso que millones de personas hacen de ChatGPT. Originalmente concebido como un asistente capaz de responder preguntas o generar contenido, la compañía ha observado que muchos usuarios recurren a la plataforma para compartir experiencias personales y emociones complejas. Por lo tanto, la inclusión de esta función de seguridad refleja un enfoque más integral hacia el bienestar emocional de sus usuarios.

Es importante destacar que OpenAI no pretende reemplazar la asistencia profesional en salud mental ni los servicios de emergencia. En cambio, busca ofrecer una capa adicional de apoyo que facilite la conexión de los usuarios con personas de su entorno durante momentos críticos. Este enfoque se basa en la premisa de que la conexión social puede ser un factor protector clave ante situaciones de crisis.

El proceso para activar esta función es sencillo. Cada usuario adulto podrá añadir a una única persona de confianza desde la configuración de su cuenta. El contacto seleccionado recibirá una invitación que deberá aceptar en un plazo máximo de siete días para que la función se active. Una vez aceptada, esa persona podrá recibir notificaciones en caso de que se detecte un riesgo serio en las interacciones del usuario con el sistema.

Cuando ChatGPT identifique señales preocupantes, primero notificará al usuario que podría alertar a su contacto de confianza y le sugerirá comunicarse directamente con esa persona. Posteriormente, un equipo de revisores capacitados analizará la situación y, solo si consideran que hay un riesgo real, se enviará una alerta al contacto designado. Las notificaciones podrán llegar a través de correo electrónico, mensajes de texto o notificaciones dentro de la propia aplicación, dependiendo de cómo el contacto esté registrado.

OpenAI también ha enfatizado que las alertas serán limitadas en su contenido, protegiendo la privacidad del usuario. Las notificaciones no incluirán detalles específicos de las conversaciones ni transcripciones, sino que simplemente informarán que se ha detectado una situación preocupante y recomendarán al contacto que ofrezca apoyo. Para el desarrollo de esta herramienta, OpenAI colaboró con expertos en salud mental y diversas organizaciones dedicadas a la prevención del suicidio, asegurando que su diseño esté fundamentado en evidencia científica que resalta la importancia del apoyo social en momentos de crisis.