ChatGPT Salud, la apuesta de OpenAI para manejar la información médica de las personas
OpenAI afirma que "cientos de millones de personas" le hacen preguntas a ChatGPT sobre bienestar y cuidado personal. Ahora proponen que la IA maneje historias clínicas.

Ilustración referencial de la función ChatGPT Salud en la plataforma del chatbot de OpenAI, en enero de 2026.
- Foto
OpenAI
Autor:
Actualizada:
Compartir:
Existen personas que por su cuenta optan por usar la inteligencia artificial como "terapeutas", pese a los varios riesgos que esto puede acarrear, pero ahora la industria tecnológica apuesta por una potsura más proactiva: la nueva propuesta de OpenAI es que los usuarios de ChatGPT confíen en el chatbot para manejar la salud e información médica de, potencialmente, millones de personas.
ChatGPT Salud es el nombre del nuevo servicio que la firma de Sam Altman ha lanzado este 7 de enero de 2026, "una experiencia de ChatGPT enfocada en la salud y el bienestar".
Esta, sin embargo, sería una decisión que estaría respaldada en los usos modernos que se le da a la IA, pues, según afirma el equipo de OpenAI, "más de 230 millones de personas en todo el mundo hacen preguntas sobre salud y bienestar cada semana".
Una IA para "apoyar, no sustituir"
"ChatGPT Salud se diseñó para apoyar, no sustituir, la asistencia médica. No se utiliza para el diagnóstico ni para el tratamiento", advierte OpenAI.
El objetivo con el que se creó esta nueva herramienta es el de "ayudar a resolver preguntas cotidianas e identificar patrones a lo largo del tiempo".
El despliegue de ChatGPT Salud no será masivo ni estará disponible en todas las plataformas, sino que empezará con un grupo reducido de usuarios.
Datos sensibles como la historia clínica electrónica, o la información ingresada a aplicaciones de bienestar como Apple Health o MyFitnessPal podrán ser conectados a ChatGPT Salud.
- ChatGPT permitirá contenido "erótico" para usuarios que sean "adultos verificados", según su creador
¿Qué riesgos hay en ocupar la IA como herramienta médica?
Según OpenAI, la información ingresada a esta nueva herramienta se almacenará de manera independiente a los chats regulares, aunque la IA también será capaz de tomar en cuenta datos médicos al momento de dar respuestas en conversaciones no relacionadas con la salud.
Margaret Chustecki, profesora del Departamento de Medicina Interna de la Escuela Médica de Yale, en Estados Unidos, publicó a finales de 2024 un artículo académico en el que advertía que entre los riesgos de usar la IA para fines médicos está la falta de transparencia en la toma de decisiones, así como los sesgos de los chatbots.
A finales de 2025, el Fondo Monetario Internacional advirtió que la mayoría de sistemas sanitarios de inteligencia artificial son entrenados con información proveniente de la población de países de altos ingresos, sin tomar en cuenta a los países del Sur Global, y que esto podría provocar diagnósticos equivocados o fallar en el reconocimiento de condiciones médicas presentes en poblaciones que no fueron incluidas en las fases de entrenamiento de las inteligencias artificiales.
Compartir: