Por años hemos esperado que la inteligencia artificial ayude a las personas a comprender mejor su salud, a navegar sistemas cada vez más complejos y a participar activamente en su propio cuidado. El anuncio de ChatGPT Salud parece, a primera vista, un paso decisivo en esa dirección. Integrar expedientes clínicos, datos de bienestar y conversación natural en un entorno con protecciones adicionales de privacidad suena no solo innovador, sino necesario. Sin embargo, como ocurre con toda tecnología poderosa aplicada a la medicina, el riesgo no está en lo que promete, sino en lo que normaliza sin suficiente escrutinio.
ChatGPT Salud se presenta explícitamente como una herramienta de apoyo, no como un sustituto del profesional de la salud. Aun así, la línea que separa la “información” del “razonamiento clínico” es más delgada de lo que solemos admitir. Interpretar resultados de laboratorio, identificar patrones longitudinales, sugerir cambios de estilo de vida o ayudar a ponderar opciones de seguros no son tareas neutras. Son actividades que influyen directamente en decisiones de salud. Cuando estas acciones se realizan de forma personalizada y con acceso a datos clínicos reales, el riesgo de que el usuario delegue criterio clínico en el sistema aumenta de manera significativa.
Este fenómeno, conocido como automation bias, no es teórico. Sabemos que los humanos tendemos a confiar más en sistemas que parecen inteligentes, empáticos y “basados en nuestros datos”. La personalización, paradójicamente, incrementa la percepción de precisión, incluso cuando el sistema puede estar equivocado o incompleto. En medicina, un error que no se reconoce como tal es más peligroso que uno evidente.
El enfoque en privacidad y cifrado que describe ChatGPT Salud pretende ser sólido y es bienvenido. La separación lógica de conversaciones, el aislamiento de memorias y la promesa de no usar datos de salud para entrenar modelos principales son pasos en la dirección correcta. Sin embargo, la historia de la tecnología nos enseña que las salvaguardas técnicas no sustituyen la gobernanza clara. Persisten preguntas clave: ¿qué usos secundarios podrían habilitarse en el futuro?, ¿qué ocurre con los datos agregados?, ¿cómo se auditan los modelos que “no entrenan” pero sí evalúan y optimizan respuestas?
Desde una perspectiva regulatoria, ChatGPT Salud habita una zona gris inquietante. No se define como dispositivo médico ni como un sistema de apoyo a decisiones clínicas, pero realiza funciones que se acercan peligrosamente a ambos. Este tipo de ambigüedad ya ha demostrado ser problemática: cuando ocurre un daño, la responsabilidad se diluye entre desarrolladores, proveedores de datos y usuarios. La medicina no puede permitirse cajas negras sin responsables claros.
También debemos considerar el impacto sistémico. Herramientas como esta pueden empoderar a pacientes informados, pero también medicalizar aún más la vida cotidiana, generar ansiedad por variaciones normales en biomarcadores y aumentar la demanda innecesaria sobre sistemas de salud ya sobrecargados. Además, al depender de ecosistemas digitales avanzados, existe el riesgo real de ampliar brechas: quienes tienen EHR interoperables, dispositivos portátiles y alfabetización digital se benefician; quienes no (que viven en sur global), quedan atrás.
Nada de esto significa que ChatGPT Salud sea un error. Al contrario, representa una oportunidad extraordinaria para redefinir la relación entre personas, datos y salud. Pero esa oportunidad solo se materializa si se aborda con la misma rigurosidad que exigimos a cualquier intervención clínica: evaluación independiente, transparencia, límites explícitos y una prioridad absoluta por la seguridad del paciente.
La pregunta no es si la IA conversacional debe participar en la salud. Ya lo hace. La pregunta es si estamos dispuestos a exigir los mismos estándares éticos, clínicos y regulatorios que cualquier otra herramienta que influya en decisiones médicas. La innovación sin frenos puede ser tan peligrosa como la inacción. En salud, el verdadero progreso ocurre cuando la tecnología amplifica el criterio humano, no cuando lo sustituye silenciosamente.
Por Cender Quispe

