Marcos de evaluación prácticos para la Inteligencia Artificial Responsable

Compartí en tu redes sociales
Este documento técnico del CLIAS presenta una revisión de alcance sobre marcos de evaluación para inteligencia artificial (IA) responsable en salud. A partir del análisis de la literatura internacional, se identifican cuatro marcos que ofrecen herramientas prácticas para guiar el desarrollo ético de sistemas de IA, como listas de verificación, matrices técnicas y criterios de gobernanza. Además, se examina cómo abordan —o no— la perspectiva de género, y se proponen recomendaciones para mejorar futuras evaluaciones. El documento busca servir como referencia para equipos de salud, desarrolladores, decisores y actores interesados en garantizar una IA ética, segura e inclusiva.
Ir al contenido