Datos para una inteligencia artificial en salud responsable: aprendizajes desde la Comunidad de Conocimiento del CLIAS

Compartí en tu redes sociales

No importa cuántos datos tengamos.

Para el desarrollo responsable de la inteligencia artificial en salud, lo que realmente importa es la calidad de los datos.

Cómo se registran, cómo se organizan y cómo se utilizan los datos en salud condiciona qué puede hacer, y qué no, la inteligencia artificial. Los datos son el punto de partida de cualquier solución basada en IA.

Desde la Comunidad de Conocimiento del Centro de Inteligencia Artificial y Salud (CLIAS), el Grupo de Trabajo de Datos y Métodos reunió experiencias y aprendizajes surgidos del trabajo colectivo en distintos proyectos de la región para abordar una pregunta central: ¿cómo podemos mejorar la calidad de los datos en salud para desarrollar soluciones de IA en América Latina y el Caribe?

Para responderla, el primer paso fue identificar los desafíos reales que aparecen cuando se trabaja con datos de salud en contextos concretos, más allá de los modelos teóricos o las soluciones tecnológicas disponibles.

Aprender de la práctica

El documento “Experiencias y aprendizajes sobre prácticas de producción, estandarización y uso de datos en salud en una comunidad de conocimiento” recupera dos experiencias especificas: una vinculada a la salud materna y otra a la salud sexual y reproductiva de personas con discapacidad.

A partir de estos casos, el informe muestra cómo se producen, organizan y utilizan los datos en la práctica cotidiana, y qué tensiones, decisiones y dilemas emergen en ese proceso.

Datos que no son neutros

Uno de los principales aprendizajes del documento es que los datos en salud no son objetivos ni neutros: importa qué se registra, qué se deja afuera, qué categorías se utilizan y cuáles no.

Por eso, la calidad de los datos no depende solo de la tecnología disponible, sino también de decisiones institucionales, criterios profesionales y contextos sociales. Ignorar estas dimensiones puede llevar a sistemas de IA que reproduzcan sesgos o invisibilicen a determinadas poblaciones.

Uso de datos sintéticos

El documento explora también el uso de datos sintéticos como una herramienta que permite entrenar y probar modelos sin utilizar datos reales de personas, contribuyendo a la protección de la privacidad, aunque con límites que es importante reconocer. Es, en cierta forma, como construir una maqueta antes de levantar las paredes de una casa.

En el caso de los datos no estructurados, como los textos libres de las historias clínicas, el desafío es aún mayor. Traducir situaciones complejas de la vida real en categorías comprensibles para una computadora implica tomar decisiones que, si no se abordan de manera cuidadosa y colectiva, también pueden generar errores o sesgos.

¿Por qué compartimos esta información?

Compartir estos procesos es una forma de ayudar a otros proyectos a no empezar de cero, a reconocer desafíos concretos y un ejemplo del valor de la co-creación como estrategia para pensar y desarrollar soluciones frente a problemas reales.

Descargar artículo completo

Ir al contenido