Caja de Herramientas Éticas

En el contexto del trabajo que realizamos en el CLIAS para fortalecer las competencias de los equipos de investigación que trabajen en la intersección de Inteligencia Artificial y Salud Sexual, reproductiva y Materna. Hemos elaborado esta caja de herramientas éticas compuesta por 4 documentos y una guía de lectura para que puedan aprovechar al máximo el contenido

Los documentos que se presentan a continuación fueron seleccionados por el comité de expertos del CLIAS y nuestros proyectos financiados. Es por ello, qué queremos agradecer especialmente al Dr. Marcelo Losso, Abraham Iriarte Naranjo y Verónica Viloria por sus aportes.

Una breve introducción a la bioética y la ética en investigación.

La incorporación de nuevas tecnologías en la práctica sanitaria implica un proceso riguroso diseñado para proteger a las personas y respetar los cuatro principios bioéticos: beneficencia, no maleficencia, justicia y autonomía. Este proceso comienza demostrando que las tecnologías son seguras y eficientes, continúa asegurando su efectividad, y finaliza evaluando si ofrecen mejoras significativas en comparación con las tecnologías actuales para resolver problemas específicos.

Es crucial aplicar las buenas prácticas de la investigación convencional en el desarrollo y uso de herramientas basadas en inteligencia artificial, ya que muchos desafíos de estas primeras etapas de la IA han sido abordados previamente por otros investigadores.

7 Requisitos de Ezequiel Emanuel, acerca de la ética de investigación

Acceso al documento: Emanuel_Siete_Requisitos_Eticos.pdf 

Los siete principios éticos de Emanuel, usados en investigación clínica, son también aplicables a la inteligencia artificial en salud porque abordan desafíos similares, cómo proteger a las personas, evitar sesgos y asegurar transparencia. Estas pautas proporcionan una base sólida para la regulación, ya que muchos de los riesgos de la IA (sesgo algorítmico, falta de transparencia) se alinean con problemas que los ensayos clínicos ya enfrentan y que estos principios abordan.

Los siete requisitos éticos de Emanuel son fundamentales para asegurar que las investigaciones (como ensayos clínicos) se realicen de manera ética y responsable. Si bien se aplican para la investigación en la ciencia de la salud, son un andamio sobre el cual la inteligencia artificial se debe apoyar para salvaguardar el cuidado de las personas. Estos son:

  1. Valor: Garantiza que la investigación tenga un propósito útil para la sociedad.
  2. Validez científica: Asegura que los métodos son sólidos y los resultados confiables.
  3. Selección equitativa: Previene la explotación de poblaciones vulnerables.
  4. Riesgo-beneficio: Los riesgos no deben ser excesivos comparados con los beneficios.
  5. Revisión independiente: Promueve la objetividad mediante evaluaciones externas.
  6. Consentimiento informado: Los sujetos deben participar con pleno conocimiento.
  7. Respeto a los participantes: Implica monitoreo continuo y el derecho a retirarse.

Inteligencia Artificial (IA) Responsable: Claves para aplicar los principios éticos en las soluciones de IA en el campo de la salud

Acceso al documento: https://clias.iecs.org.ar/wp-content/uploads/2023/11/DT3_CLIAS.pdf

Resulta esencial incluir en los proyectos, los principios éticos de IA salud desde las primeras etapas, esto garantizará que las decisiones tomadas por estos sistemas respeten valores fundamentales como la justicia y la equidad y eviten resultados sesgados. Profundizando en este tema, un artículo publicado recientemente en la New England Journal of Medicine, (Ida Sim et all) profundiza sobre la relación de estos principios y el uso de grandes modelos de lenguaje (LLM, por su sigla en inglés)   

Los sesgos en los modelos de IA representan una preocupación significativa, especialmente cuando los datos utilizados para entrenar los sistemas no reflejan la diversidad de la población. Esto puede dar lugar a resultados inexactos o injustos, afectando de manera desproporcionada a las minorías.

La transparencia y explicabilidad de los sistemas de IA son igualmente cruciales. Será importante que tanto los profesionales de salud como los pacientes comprendan cómo funcionan estos sistemas. La naturaleza de “caja negra” de algunos algoritmos de IA puede generar desconfianza y dificultar la toma de decisiones médicas. Otro tema relevante es la protección de la privacidad y los datos personales, ya que el uso de información sensible requiere estrictas medidas de seguridad para evitar que se comprometan los datos.

El documento de referencia también menciona un tema muy importante que nos ayudará a enfrentar estos desafíos: la interdisciplinariedad. Expertos en salud, científicos de datos, ingenieros, legisladores y especialistas en bioética deben trabajar en conjunto para asegurar que el desarrollo y la aplicación de la IA en el sector salud sea ética y efectiva. 

“GUÍA PARA LA INCORPORACIÓN DE PERSPECTIVA DE GÉNERO EN INVESTIGACIÓN Y DESARROLLO DE INTELIGENCIA ARTIFICIAL EN SALUD”. 

Acceso al documento:https://clias.iecs.org.ar/wp-content/uploads/2024/09/Guia-para-incorporar-perspectiva-de-genero-e-IA-y-Salud.pdf

El documento enfatiza la importancia de comprender el género como un constructo sociopolítico y dinámico que influye en las relaciones sociales y estructuras de poder. Los roles y comportamientos asignados a hombres y mujeres varían con el tiempo y el contexto, lo que refuerza desigualdades estructurales. La perspectiva de género no solo analiza estas dinámicas, sino que sirve como herramienta para identificar y combatir las desigualdades, visibilizando las relaciones de poder que las perpetúan.

Además, se subraya que el género es un determinante clave en la salud. Históricamente, las mujeres y otras identidades de género han enfrentado desigualdades en el acceso a recursos y oportunidades de salud. Por ejemplo, la falta de inclusión de mujeres en ensayos clínicos ha resultado en tratamientos menos efectivos para ellas. Las personas LGBTIQ+ también enfrentan barreras debido a la falta de formación de los proveedores de salud en sus necesidades específicas, lo que aumenta el riesgo de atención inadecuada.

En el ámbito de la investigación, se ha señalado que durante mucho tiempo la salud y la tecnología no han integrado adecuadamente la perspectiva de género ni la interseccionalidad. Esto ha perpetuado estereotipos, invisibilizado diferencias y reforzado desigualdades, especialmente al basarse en patrones masculinos como norma universal. Incorporar la perspectiva de género desde el diseño hasta la implementación de investigaciones garantiza resultados más inclusivos y representativos.

El desarrollo de la IA en salud pública debe regirse por principios éticos claros, como la dignidad humana, la justicia, la no discriminación y la transparencia. Es fundamental que la IA en salud tenga en cuenta la perspectiva de género para evitar la perpetuación de estereotipos y desigualdades, garantizando que las tecnologías sean inclusivas y respeten los derechos humanos.

 

ÉTICA POR DISEÑO Y ÉTICA PARA EL USO DE LA IA (ETHICS BY DESIGN AND ETHICS OF USE APPROACHES FOR ARTIFICIAL INTELLIGENCE DE LA COMISIÓN EUROPEA

Acceso al documento: https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/horizon/guidance/ethics-by-design-and-ethics-of-use-approaches-for-artificial-intelligence_he_en.pdf

La ética por diseño es un enfoque que integra consideraciones éticas en las primeras etapas del desarrollo de sistemas de IA. En lugar de esperar a que surjan problemas éticos después de que el sistema esté en funcionamiento, este enfoque busca prevenirlos desde el inicio. Esto se logra incorporando principios éticos como requisitos fundamentales a lo largo del proceso de desarrollo, asegurando que la IA respete valores morales como la justicia, la equidad y la transparencia. Según la Comisión Europea, la ética por diseño implica seis tareas específicas durante la creación de sistemas de IA. Estas tareas permiten identificar y abordar preocupaciones éticas de manera proactiva, cerrando la brecha entre las intenciones éticas y el comportamiento real de los sistemas. De esta manera, se busca garantizar que la IA funcione dentro de límites morales claros y no se desvíe hacia conductas no deseadas.

Las seis tareas son:

1)Especificación de objetivos: en esta fase se definen los objetivos del sistema y se evalúan desde una perspectiva ética. Es crucial identificar posibles violaciones éticas desde el principio y, si el sistema tiene el potencial de infringir los derechos humanos o causar daño social, los objetivos deben ajustarse para mitigar estos riesgos. Esta tarea se enfoca en asegurarse de que el propósito del sistema no entre en conflicto con los valores éticos fundamentales.

b)Especificación de requisitos: se establecen tanto los requisitos técnicos como no técnicos para la construcción del sistema, incluyendo los recursos necesarios y una evaluación inicial de riesgos. En esta etapa, se debe asegurar que las herramientas y procesos utilizados apoyen los principios éticos, como la transparencia y la minimización de sesgos. La preparación de un plan de cumplimiento ético es crucial para garantizar que las consideraciones éticas se incorporen a lo largo del desarrollo.

c)Diseño de alto nivel: se desarrolla la arquitectura general del sistema, teniendo en cuenta los requisitos éticos. En esta fase, se diseñan mecanismos para asegurar que las decisiones del sistema sean comprensibles y trazables, y que los usuarios sepan cuándo interactúan con una IA. También se debe asegurar que el diseño respete la privacidad, la protección de datos y evite el sesgo algorítmico.

d)Recopilación y preparación de datos: la recolección, verificación y preparación de datos son etapas críticas en términos éticos. Los datos utilizados deben ser representativos y no introducir sesgos que puedan generar resultados injustos o discriminatorios. También se deben tomar medidas para proteger la privacidad y garantizar que el sistema no utilice datos de manera que comprometa los derechos de las personas.

e)Diseño y desarrollo detallado: en esta etapa se construye el sistema completo, asegurándose de que los requisitos éticos se implementen en cada aspecto del desarrollo. Esto incluye la creación de mecanismos para garantizar la trazabilidad y la transparencia en el funcionamiento del sistema, así como la protección de los datos y la minimización de riesgos éticos.

f)Pruebas y evaluación: el sistema debe ser sometido a pruebas exhaustivas para verificar que cumple con los requisitos éticos definidos. Esto incluye la evaluación de la comprensión del sistema por parte de los usuarios y la validación de que el sistema no infringe los principios éticos establecidos. Cualquier problema ético identificado en esta fase debe ser corregido antes de que el sistema entre en operación.

 

Ir al contenido