El ‘contacto de confianza’ de ChatGPT alertará a sus seres queridos sobre problemas de seguridad


OpenAI está lanzando una función de seguridad opcional para ChatGPT que permite a los usuarios adultos asignar un contacto de emergencia por motivos de seguridad y salud mental. Los amigos, familiares o cuidadores designados como «Contacto de confianza» serán notificados si OpenAI detecta que una persona puede haber discutido temas como la autolesión o el suicidio con el chatbot.

«Trusted Contact está diseñado en torno a una premisa simple, validada por expertos: cuando alguien puede estar en crisis, conectarse con alguien que conoce y en quien confía puede marcar una diferencia significativa», dijo OpenAI en su anuncio. «Ofrece otra capa de soporte además de las líneas de ayuda localizadas que ya están disponibles en ChatGPT».

La función Contacto de confianza es voluntaria. Cualquier usuario adulto de ChatGPT puede habilitarlo agregando los datos de contacto de un compañero adulto (mayor de 18 años en todo el mundo o mayor de 19 en Corea del Sur) en la configuración de su cuenta ChatGPT. El Contacto de Confianza deberá aceptar la invitación dentro de una semana de recibir la solicitud. Los usuarios pueden eliminar o editar el contacto elegido en la configuración, y el contacto de confianza también puede optar por eliminarse en cualquier momento.

OpenAI dice que la notificación es «intencionalmente limitada» y no compartirá detalles del chat ni transcripciones con el contacto de confianza. Si los sistemas automatizados de OpenAI detectan que un usuario está hablando de hacerse daño a sí mismo, ChatGPT alentará al usuario a comunicarse con su contacto de confianza para obtener ayuda y le informará que es posible que se notifique al contacto. Luego, un «pequeño equipo de personas especialmente capacitadas» revisará la situación, según OpenAI, y ChatGPT enviará un breve correo electrónico, mensaje de texto o notificación ChatGPT en la aplicación al contacto de confianza si se determina que la conversación indica problemas de seguridad graves.

Esto se basa en la función de contacto de emergencia que se introdujo junto con los controles parentales de ChatGPT en septiembre, después de que un joven de 16 años se quitara la vida después de meses de confiar en ChatGPT. Meta también ha introducido una función similar que alerta a los padres si sus hijos buscan «repetidamente» temas de autolesión en Instagram.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here