Inteligencia Artificial

Llega 'ChatGPT Salud' y los médicos españoles alertan de sus peligros

Una herramienta específica de IA, que pide que el usuario suba todo su historial clínico, empieza a funcionar, con posibles errores y falta de regulación

Una persona, utilizando ChatGPT
AmpliarAmpliar
Una persona, utilizando ChatGPTFREEPIK
Una persona, utilizando ChatGPT

CerrarCerrar

Agencia Colpisa

Publicado el 17/01/2026 a las 05:00

Una de las 230 millones de personas que cada semana consulta con ChatGPT sobre temas de salud la utiliza para "orientarme en planes de ejercicio, entender mejor cómo manejar el estrés y las emociones asociadas al trabajo, y conocer algunos remedios caseros básicos, como infusiones para la digestión", dice P., un profesional de más de 50 años y menos de 60, deportista y con buena salud. "No considero que pueda sustituir a un médico, pero es una fuente complementaria de información en psicología, motivación y nutrición. La uso de manera ocasional".

Cuando P. realiza una consulta en la herramienta de inteligencia artificial (IA) que pertenece a la empresa OpenIA, describe la "situación de forma clara, incluyendo los aspectos más relevantes del contexto para que la respuesta sea lo más precisa posible". Por ejemplo, "en un caso de ambiente laboral tóxico, explico la situación con ejemplos concretos. Detallo que se trata de una persona con la que debo interactuar de forma frecuente, cuyo lenguaje verbal y corporal es defensivo, y explico cómo esa interacción me afecta emocionalmente y repercute en mi desempeño y bienestar. A partir de ahí, pregunto qué estrategias o técnicas existen para manejar ese tipo de situaciones sin que me afecten". ¿Por qué tantos millones de personas acuden a ChatGPT? "Por la accesibilidad, la privacidad en la interacción y la posibilidad de obtener información explicada de forma clara", responde P., que excluye el motivo económico y asegura que nunca se ha sentido en riesgo por acudir a la máquina.

"Si se usa como un asesor o un asistente que te puede dar información, en tiempo real las 24 horas del día, es un gran beneficio", afirma Pedro Moreno, psiquiatra y miembro de la Sociedad Española de Psiquiatría Clínica. "En psiquiatría, por ejemplo, una persona puede empezar a tener fallos de memoria o alucinaciones visuales, y la familia puede pensar que está haciendo el tonto, pero luego, si preguntan a la IA, pueden darse cuenta que podría ser un síndrome metabólico que está provocando un trastorno psicótico. Entonces, requerirán una valoración profesional. Es útil, sobre todo con listas de espera que superan los seis meses, como sucede en España en muchas especialidades".

Estos días, este "servicio" de IA dio un giro al presentar una herramienta nueva diseñada en exclusiva para el área de la salud. Se trata de ChatGPT Health (OpenIA es la primera pero ya otras preparan algo similar). En España se ha abierto la lista de espera para usuarios, que serán atendidos en su idioma. "Pero no hay que asumir su información como verdad", advierte Moreno, al igual que otros especialistas consultados en este reportaje. "Existe el riesgo de las alucinaciones (como se conoce a la información verosímil proporcionada por la IA que no tiene base en la realidad) y un paciente no puede saber si la respuesta es correcta o no. Sigue necesitando un médico que la supervise", mantiene Fernando Eiras, del Grupo de Trabajo de Evaluación de Tecnologías y Metodología de la Investigación de la Sociedad Española de Medicina Intensiva Crítica y Unidades Coronarias. "También depende de cómo se genere la pregunta (conocida como 'prompt') dará más o menos errores".

En un ensayo sin pacientes reales, Eiras puso a prueba a la IA en un caso de diabetes. "Era una simulación en la que se pedía la cantidad de insulina que había que poner. Nos dio una dosis incorrecta", recuerda este médico intensivista del Hospital Álvaro Cunqueiro de Vigo. "Las consecuencias no iban a ser de fallecimiento en este caso en concreto, pero te indica que tienes que tomar con mucho cuidado algo que está cambiando la medicina".

VISITADORES TECNOLÓGICOS

Ahora a los médicos no sólo les llegan a consulta sólo los 'visitadores' que ofrecen medicamentos en nombre de la farmacéutica que representan. "También vienen empresas tecnológicas a ofrecer sus herramientas de IA para prescribir a tus pacientes y utilizarla en el día a día", dicen un par de fuentes. "El problema aparece cuando se usa o se comercializa como sustituto de acto médico sin garantías, validación, trazabilidad y supervisión humana", advierte Helena Bascuñana, presidenta de la Sociedad Española de Rehabilitación y Medicina Física. "Hay riesgos relevantes como la falta de contextualización clínica, por lo que puede fallar en reconocer una situación potencialmente grave que precisa de atención médica urgente; los sesgos según poblaciones y la vulneración a la privacidad y protección de datos". ¿Está en riesgo también la autoridad del médico? "Sí, si el paciente interpreta la herramienta como una segunda opinión o incluso como una primera consulta antes de ir a su médico", dice María García Gil, farmacéutica y coordinadora del Comité de Competencias Digitales de la Sociedad Española de Farmacéuticos de Atención Primaria. "Pero bien utilizado, yo lo veo más como un cambio de rol: el paciente llega con más información y el médico debe actuar como garante de seguridad, contexto y priorización clínica".

CONTROL FUERA DE EUROPA

Los creadores de ChatGPT Salud se defienden de antemano en la presentación que invita a "unirse" a la lista de espera para empezar una "experiencia enfocada en salud y bienestar". Después de haber trabajado "más de dos años" con "260 profesionales de la salud de 60 países de docenas de especialidades", prometen reforzados controles de seguridad y privacidad, con "cifrado y aislamiento" de conversaciones; que la información no se utilizará para "entrenar nuestros modelos principales", aunque sí para esta herramienta específica, y que existirá la opción de los "chats temporales" y el borrado en un "plazo de 30 días".

Sin embargo, se encuentran fuera de la normativa europea desarrollada para las empresas tecnológicas dedicadas al ámbito sanitario, según las fuentes consultadas. "Se define como un producto no sanitario y queda fuera de la legislación europea específica que salió el año pasado", explica Eiras, que además es profesor en la Universidad de Santiago de Compostela. "Tampoco hay garantía de que se cumplan las leyes europeas relacionadas con la inteligencia artificial en cuanto a la protección de datos. Por último, debería ser obligatorio que nosotros seamos capaces de saber lo que pasa dentro del modelo, para conocer en qué pasos claramente establecidos está basada una recomendación".

"La falta de trazabilidad invalida toda la respuesta, al no poder verificar de dónde viene esa información", sentencia García Gil. "Además, a largo plazo, si estos datos se filtrasen o cambiasen las condiciones, podrían disponer de tu información determinadas empresas u organizaciones, que podrían utilizarla para publicidad agresiva dirigida, o desembocar en implicaciones a la hora de solicitar un seguro o una hipoteca, o incluso hasta podrías verte comprometido en un proceso de selección de personal para conseguir un puesto de trabajo".

PACIENTES CON DOLOR

Con mayores consultas en atención primaria, medicina interna, pediatría, psiquiatría, psicología, dermatología, medicina física y rehabilitación, según Bascuñana, y "un uso esperable de pacientes en problemas prevalentes, como dolor, sueño, ansiedad o síntomas digestivos", se impone una formación mayor en estos modelos dentro de la profesión sanitaria, coinciden los entrevistados. "Es fundamental la educación para que los médicos sepan utilizarla bien para el beneficio del paciente, pero también sepan evitar los riesgos que supone un mal uso", indica Moreno autor del ensayo 'Inteligencia artificial, guía de uso saludable'. Los futuros 'pacientes' de la IA tendrán que decidir entre la fe ciega, casi religiosa, o la confianza razonable en los médicos de siempre. En esta diatriba propia de nuestro tiempo, el usuario P. asegura que "bajo ninguna circunstancia dejaría en manos de ChatGPT algo grave". El mensaje final se resume en una palabra: precaución.

Continuar

Gracias por elegir Diario de Navarra

Parece que en el navegador.

Con el fin de fomentar un periodismo de calidad e independiente, para poder seguir disfrutando del mejor contenido y asegurar que la página funciona correctamente.

Si quieres ver reducido el impacto de la publicidad puedes suscribirte a la edición digital con acceso a todas las ventajas exclusivas de los suscriptores.

Suscríbete ahora