Desde sus inicios y cada vez más, la medicina ha tenido en la tecnología a una compañera inseparable. Hoy es imposible imaginar la atención a pacientes sin herramientas que van desde el básico estetoscopio o los aparatos para radiología, hasta máquinas de alto calibre como tomógrafos computarizados o robótica quirúrgica. No obstante, cuando se habla de Inteligencia Artificial médica es común que se marque una distancia. Aún este tipo de recursos son objeto de cierta reticencia por los profesionales de la salud, y en gran medida esto se debe a la responsabilidad frente a su uso. ¿En quién recae? Echemos un vistazo a esta discusión.
Inteligencia Artificial médica: un debate más allá de la tecnología
El uso de la inteligencia artificial (IA) en el terreno médico no solo trae consigo una discusión técnica sobre sus posibilidades e innovaciones. Igual de ardorosa es la conversación sobre sus implicaciones legales y éticas. Así como IA promete revolucionar la atención sanitaria analizando datos, mejorando diagnósticos y aplicando tratamientos a través de herramientas avanzadas, también plantea preguntas sobre la responsabilidad en caso de errores.
¿Los desarrolladores que crean la tecnología, los profesionales de la salud que la utilizan o las instituciones que la implementan son quienes deberían responder legalmente ante posibles fallos? Esta es una de las primeras preguntas en una larga lista de inquietudes.
Luego, hay más tela que cortar asociada al tema de su uso ético, por ejemplo:
- ¿Cómo se puede garantizar la transparencia de las decisiones tomadas por la IA en salud?
- ¿Cómo se pueden prevenir sesgos y discriminación en los algoritmos y decisiones autónomas de IA médica?
- ¿Será la Inteligencia Artificial médica exclusiva de quienes puedan pagarla?
- ¿Debería existir un marco regulatorio específico para la IA médica a nivel internacional?
- ¿Por qué confiar más en el dictamen de una máquina que en el de un profesional?
Por ahora, la respuesta a estas preguntas sigue siendo una incógnita. Lo cierto es que cientos de instituciones a nivel mundial ya usan hoy tecnología basada en IA para diversos procedimientos y tratamientos. ¿Quién da la cara cuando estas máquinas fallan?
Esto dice la OMS sobre regulación internacional en IA médica
Si bien aún son pocas las legislaciones que abordan directamente el uso de la IA, sí son muchas las que permiten regular la materia considerando a estos sistemas como productos que pueden funcionar bien o mal. Por ejemplo, la Ley 1480 de 2011 en Colombia ofrece un marco para abordar problemas de esta naturaleza, calificando a la IA como un producto cuyos defectos pueden dar lugar a reclamaciones por daños.
Otro ejemplo lo hallamos en Europa, con la Directiva de Responsabilidad por Productos Defectuosos (PLD), que aplica, como su nombre lo indica, a productos defectuosos, incluidos dispositivos médicos basados en IA.
Y viéndolo desde una perspectiva internacional, la Organización Mundial de la Salud (OMS), dio a conocer en octubre de 2023 su informe Regulatory considerations on artificial intelligence for health (Consideraciones regulatorias sobre la Inteligencia Artificial en Salud). Sobre lo establecido allí, Tedros Adhanom Ghebreyesus, Director General de la OMS, dijo:
“La inteligencia artificial es muy prometedora para la salud, pero también plantea serios desafíos, como la recopilación poco ética de datos, las amenazas a la ciberseguridad y la amplificación de sesgos o desinformación. Estas nuevas directrices ayudarán a los países a regular la IA de manera eficaz y a aprovechar su potencial, ya sea para tratar el cáncer o detectar la tuberculosis, al tiempo que se minimizan los riesgos”.
El documento valora, en primer lugar, dos normativas ya existentes, a saber:
- Reglamento General de Protección de Datos (GDPR): Marco regulatorio de la Unión Europea que protege la privacidad y los datos personales.
- Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA): Normativa estadounidense que garantiza la protección de la información médica.
Y partiendo de allí establece seis principios, que son una especie de recomendaciones normativas, las cuales deberían tomarse en cuenta para cualquier marco legal relacionado con IA médica así como por parte de desarrolladores a la hora de crear cualquier tecnología. Estas son:
- Transparencia y documentación: Documentar todo el ciclo de vida del producto y los procesos de desarrollo.
- Gestión de riesgos: Abordar el uso previsto, el aprendizaje continuo, las intervenciones humanas, el entrenamiento de modelos y las amenazas de ciberseguridad.
- Validación externa de datos: Clarificar el uso previsto de la IA para asegurar la seguridad y facilitar la regulación.
- Calidad de datos: Evaluar rigurosamente los sistemas antes de su lanzamiento para evitar sesgos y errores.
- Regulaciones complejas: Comprender el alcance de regulaciones como GDPR y HIPAA para proteger la privacidad y los datos.
- Colaboración: Fomentar la colaboración entre organismos reguladores, pacientes, profesionales de la salud, representantes de la industria y socios gubernamentales.
Mejores prácticas para incluir la IA en la práctica médica
Mientras la legislación va caminando, el uso de la IA en la medicina al igual que en muchos aspectos de la vida cotidiana parece ir en jet. Muchos miembros del THS aún se preguntan cómo implementar esta tecnología de forma ética e inteligente. Nuevamente la OMS nos da pistas, que por igual deben ser tomadas en cuenta por los profesionales, por las instituciones y por las instancias legislativas.
Su informe de 2021 Ethics and governance of artificial intelligence for health (Ética y gobernanza de la inteligencia artificial en el ámbito de la salud) dejó estos principios que pueden servir como guía:
- Preservar la autonomía del ser humano: Asegurar que las personas mantengan el control sobre las decisiones médicas y la privacidad de sus datos.
- Promover el bienestar y la seguridad: Cumplir con normas de seguridad, precisión y eficacia, implementando medidas de control de calidad.
- Garantizar la transparencia: Publicar información clara y accesible sobre la IA, fomentando consultas y debates constructivos.
- Promover la responsabilidad y la rendición de cuentas: Asegurar el uso adecuado de la IA por personal capacitado y establecer mecanismos de reparación para los afectados.
- Garantizar la inclusividad y la equidad: Diseñar la IA para un uso equitativo sin discriminación por características personales.
- Promover una IA con capacidad de respuesta y sostenible: Evaluar continuamente la IA en su contexto real, minimizar impactos ambientales y prever las perturbaciones laborales, incluyendo la formación necesaria para los profesionales de salud.
Si es tu caso y ya usas la IA en tus labores como profesional de la salud, mantener asesoría permanente así como la formación continua serán estrategias de gran ayuda.
Estamos contigo en todo tu camino como THS
En S.C.A.R.E. y FEPASDE te acompañamos siempre como THS. Nuestra cartera de servicios incluye asesoría legal integral y apoderamiento, con profesionales de primer nivel que están a tu lado ante cualquier situación o duda.
Igualmente, si se trata de adiestramiento y aprendizaje, te ofrecemos préstamos educativos, cursos virtuales, coloquios y publicaciones científicas para que puedas actualizarte y mantenerte al día.
¡Queremos ayudarte a conseguir tu mejor versión como profesional de la salud!
Haz clic aquí y conoce nuestras modalidades de afiliación. ¡Tú cuidas y nosotros te cuidamos!