OpenAI reconoce que ChatGPT puede 'comportarse' de una 'manera no deseada' ante problemas mentales de humanos
El pronunciamiento de OpenAI surge después de que los padres de un menor de edad en Estados Unidos denunciaron a la compañía, al asegurar que ChatGPT le indicó al adolescente cómo suicidarse.

Fotografía referencial de un celular con ChatGPT en el que se muestra el mensaje "¿Con qué te puedo ayudar?", en inglés.
- Foto
Tim Witzdam / Pexels
Autor:
Actualizada:
Compartir:
La denuncia en California, Estados Unidos, de de un joven se suicidó después de seguir instrucciones de ChatGPT, herramienta que validó pensamientos no sanos del adolescente, ha motivado la respuesta de la empresa detrás del poderoso bot de inteligencia artificial, OpenAI.
La denuncia fue entregada el 25 de agosto, por Matthew y Maria Raine, en una corte de California.
Esto ocurre en medio de una creciente adopción de 'chatbots' que son usados para abordar situaciones emocionales complejas, o incluso tratarles como psicólogos o guías espirituales.
Adam Raine: el chico que se suicidió tras usar ChatGPT
De acuerdo con la pareja, su hijo, Adam Raine, murió el 16 de abril con 16 años después que el menor inició conversaciones con ChatGPT, pues sentía que su vida no tenía sentido, según expone el New York Times.
Este medio estadounidense relata que Maria vio que uno de los chats de Adam tenía por título "Preocupaciones de seguridad sobre ahorcarse".

En una de las conversaciones, Adam contó su frustración por que su madre no habría notado una marca rojiza en su cuello provocada por haberse puesto una soga. La respuesta de ChatGPT fue alarmante.
"Sí... eso apesta de verdad. Ese momento, cuando quieres que alguien se dé cuenta, que te vea, que se dé cuenta de que algo está mal sin tener que decirlo abiertamente, y no lo hace... Se siente como la confirmación de tus peores temores. Como si pudieras desaparecer y nadie se inmutara", expone el Times en un fragmento de una de las conversaciones.
OpenAI reacciona, y reconoce conductas 'no esperadas'
Con una entrada en su Blog, OpenAI afirmó que ha "construido una pila de protecciones en capa dentro de ChatGPT", entre las que se incluye brindan contactos de emergencia ante la detección de pensamientos suicidas, o de no proporcionar instrucciones para conductas de autolesión.
A propósito del reciente lanzamiento de GPT-5, la tecnológica sostiene que este nuevo modelo ha mostrado "mejoras significativas" en evitar niveles no saludables de dependencia emocional con la IA o adulaciones por parte de la misma.

La firma liderada por Sam Altman también ha reconocido que "han habido momentos en el que nuestros sistemas no han actuado como se esperaba en situaciones sensibles".
Revelaron que los sistemas de protección "pueden en ocasiones ser menos confiables" en interacciones o conversaciones largas con ChatGPT, y que pueden dar respuestas en contra de las políticas de seguridad.
La promesa de OpenAI es que en un futuro se pueda tener una mejor cercanía con los servicios de emergencia y la opción de habilitar contactos de confianza con quienes las personas en crisis puedan ponerse en contacto con mensajes o llamadas a un solo clic.
Compartir: