OpenAI ha introducido Contactos de confianza para ChatGPT, que permite a los usuarios nominar amigos con los que la empresa puede contactar si corren el riesgo de hacerse daño. Cada vez más personas utilizan ChatGPT como terapeutas digitales y confían en los chatbots para sus necesidades de salud mental. OpenAI notificado previamente bbc que más de un millón de sus 800 millones de usuarios semanales expresan pensamientos suicidas en sus conversaciones.
El año pasado, OpenAI enfrentó una demanda por muerte por negligencia, acusando a la empresa de permitir que los adolescentes se suicidaran. La demanda alega que el adolescente habló con ChatGPT sobre cuatro intentos previos de acabar con su vida y luego lo ayudó a planificar su suicidio real. Eso bbc Una investigación publicada en noviembre de 2025 encontró que en al menos un caso, ChatGPT aconsejó a los usuarios sobre cómo suicidarse. OpenAI le dijo a la organización de noticias que desde entonces ha mejorado la forma en que su chatbot responde a las personas en peligro.
Trusted Contacts se basa en los controles parentales de ChatGPT y brinda a los adultos mayores de 18 años la opción de agregar detalles de alguien que pueda ayudarlos si están al borde de autolesionarse. Los usuarios podrán nominar a un adulto como contacto de confianza en la configuración de ChatGPT, quien luego deberá aceptar su invitación dentro de una semana. Si no lo aceptan, los usuarios pueden optar por agregar otro contacto. El sistema ChatGPT advertirá primero a los usuarios que la empresa puede notificar a sus contactos si detecta una posibilidad grave de que se hagan daño. Esto animará a los usuarios a ponerse en contacto con sus amigos e incluso sugerirá posibles temas para iniciar una conversación.
El proceso no es completamente automático. OpenAI dice que un «pequeño equipo de personas especialmente capacitadas» revisará la situación, y sólo si determinan que existe un riesgo grave de autolesión, ChatGPT enviará un correo electrónico, un mensaje de texto o una notificación en la aplicación a los contactos del usuario.
«[The user] «Puede estar pasando por un momento difícil», se leerá en el mensaje. «Como su contacto de confianza, le animamos a que se ponga en contacto con ellos». Desde allí, el contacto puede ver más detalles sobre la alerta, notificándoles que OpenAI ha detectado una conversación en la que el usuario habló sobre el suicidio. Sin embargo, la empresa no les enviará una transcripción de la conversación por el bien de la privacidad del usuario. «Aunque ningún sistema es perfecto y las notificaciones a los contactos de confianza pueden no siempre reflejar exactamente lo que una persona está experimentando, cada notificación se somete a una revisión humana capacitada antes de ser enviado, y nos esforzamos por revisar estas notificaciones de seguridad en menos de una semana. horas», escribió la compañía en su anuncio.
Si usted o alguien que conoce tiene pensamientos suicidas, no dude en llamar a la Línea Nacional de Prevención del Suicidio al 1-800-273-8255. La línea está abierta las 24 horas del día, los 7 días de la semana y también hay chat en línea si el teléfono no está disponible.



