Resumen del documento
La inteligencia artificial (IA) está transformando el sector salud a nivel global, prometiendo avances significativos en diagnósticos asistidos y tratamientos personalizados. Sin embargo, su adopción acelerada plantea la necesidad de un marco regulatorio que garantice su uso ético y seguro. Este documento, elaborado por el Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS), ofrece un análisis detallado de la regulación de la IA en salud, destacando tanto las diferencias regionales como los enfoques adoptados por diversos países y organizaciones internacionales.
El documento examina cómo organizaciones internacionales como la Organización Mundial de la Salud (OMS) y la Organización para la Cooperación y el Desarrollo Económicos (OCDE) han establecido principios éticos y directrices para el uso de la IA. Estos principios, que incluyen la transparencia, la protección de datos y la supervisión humana, buscan asegurar que la IA se utilice de manera responsable y justa. Además, se destacan las legislaciones y prácticas regulatorias de países como Japón, Reino Unido, Unión Europea, Canadá y Estados Unidos, que han adoptado enfoques diversos, desde leyes vinculantes (hard law) hasta enfoques más flexibles y no vinculantes (soft law).
En América Latina y el Caribe, la regulación de la IA presenta desafíos específicos debido a las condiciones socioeconómicas y tecnológicas de la región. Aunque algunos países han avanzado en la creación de proyectos de ley y regulaciones inspiradas en el Acta de IA de la Unión Europea, la implementación y adopción de estas regulaciones varían significativamente. El documento resalta la importancia de la colaboración regional e internacional para compartir conocimientos, recursos y mejores prácticas.
El documento identifica varios desafíos que enfrenta la región, incluyendo la desigualdad en el acceso a innovaciones médicas, la dependencia tecnológica, la competitividad económica y la incertidumbre legal y ética. Para superar estos desafíos, se propone desarrollar marcos regulatorios adaptados a los contextos locales, fomentar la inversión en investigación y desarrollo (I+D), y establecer mecanismos de monitoreo y evaluación continua de los sistemas de IA.
Entre las recomendaciones clave, se destaca la importancia de crear agencias reguladoras dedicadas a supervisar el cumplimiento de las normativas y evaluar el impacto social y ético de la IA. Además, se sugiere la búsqueda activa de estándares y protocolos de certificación de IA dentro de un marco regulatorio flexible, tanto a nivel regional como global, para garantizar sistemas de IA fiables y seguros.