
Los sistemas de soporte a las decisiones clínicas (SSDC) en mis propias palabras los defino como herramientas clínicas diseñadas para que el médico, en un contexto adecuado, pueda tomar una decisión soportada; un sistema que le da elementos que le permita apoyarse en su razonamiento y toma de decisiones clínicas.
Existen dos grandes tipos, que no son excluyentes entre sí, pues un sistema de soporte al razonamiento clínico puede tener elementos de ambos, éstos son: Los sistemas expertos o “Knowledge based” y Sistema derivado de datos con inteligencia artificial.(Sutton et al. 2020)
Este punto de apoyo al razonamiento clínico tanto al diagnóstico, tratamiento y pronóstico es un concepto realmente importante de entender, la inteligencia artificial trata de imitar el proceso cognitivo humano a través de algoritmos computacionales, que procesan los datos y los presentan de manera que apoya la toma de decisiones sobre las afecciones de los pacientes, haciendo énfasis en la inteligencia colaborativa, donde se potencia la humana y al computacional se aumenta. Por eso algunos artículos discuten en la literatura la posibilidad de llamarlos sistemas de soporte al razonamiento clínico. (van Baalen, Boon, and Verhoef 2021)
Existen investigaciones sobre este apasionante tema de la intersección entre la inteligencia humana y la “inteligencia” computacional, pero la mayoría carece de una calidad metodológica y un nivel de madurez tecnológica (TLR 3-4 ) que permita aumentar el nivel de confianza en quienes tomamos decisiones clínicas y asumimos la responsabilidad médica de la salud de nuestros pacientes, esto repercute en que la adopción de estos sistemas en el área clínica sea realmente pobre (van Baalen, Boon, and Verhoef 2021)
Para evaluar la confiabilidad, interpretabilidad y la generalizabilidad de los resultados se necesitan ensayos clínicos que avalen el diseño, construcción y desenvolvimiento de estos sistemas, además de un gran trabajo de experiencia de usuario clínico (UX) que hagan viables estos sistemas Ver gráfico 1 tomado de (van de Sande et al. 2021)

Fue publicado en la revista Nature la guía DECIDE-AI, un consenso de expertos con metodología Delphi sobre cómo reportar estudios de sistemas de soporte al razonamiento clínico guiados por (IA), en la que la justificación de este consenso es bioética: las máquinas (aún) no tienen registro médico y no puede (hoy) tomar decisiones sobre salud humana, pueden sugerir, la decisión y su responsabilidad es asumidas por un médico.
Se recomienda al lector acceder https://www.nature.com/articles/s41591-022-01772-9, pero dejaré algunos de los puntos que considero más importantes.
La guía deja claro que el objetivo es evaluar una intervención clínica en fases tempranas similar a las fases de desarrollo de un medicamento (fase 1 y fase 2), que similar a la industria de la aviación, primero se hagan pruebas a pequeña escala con el fin de evaluar la seguridad y aumentar la confianza en estos sistemas, para esto propone un camino e invitan a seguir e implementar para “madurarla”.
Hace un recuento de las guías publicadas, que se resumen en la siguiente gráfica y los momentos/escenarios clínicos en que se realizaron.

Hace énfasis en seguir la validación preclínica con las guías TRIPOD AI (modelo de predicción) y STARD AI (modelo diagnóstico), luego independiente del estudio se debería aplicar esta guía DECIDE-AI para asegurar los componentes mínimos de calidad para un reporte científico. Después de completar esta fase vienen las guías SPIRIT IA y CONSORT IA que nos guían a través del mundo de los ensayos clínicos de asignación aleatoria.

Es deber tanto de los médicos como de los tomadores de decisiones conocer y orientar a otras disciplinas en este camino, para implementar correctamente estas guías, aplicando la máxima de “primum non nocere”, evitando la implementación temprana e insegura de este tipo de sistemas.
Por último dejo la lista completa de cada componente del DECIDE AI, esperando que algún día esta publicación de opinión sirva como guía para una implementación segura de este tipo de modelos, no sin antes decir que recorrer un camino como lo propone esta guía debería ser el sueño de cualquier padre de algún algoritmo que pretenda mejorar nuestra salud a través de la inteligencia artificial.



Bibliografía
Baalen, Sophie van, Mieke Boon, and Petra Verhoef. 2021. “From Clinical Decision Support to Clinical Reasoning Support Systems.” Journal of Evaluation in Clinical Practice 27 (3): 520–28.
Sande, Davy van de, Michel E. van Genderen, Joost Huiskens, Diederik Gommers, and Jasper van Bommel. 2021. “Moving from Bytes to Bedside: A Systematic Review on the Use of Artificial Intelligence in the Intensive Care Unit.” Intensive Care Medicine 47 (7): 750–60.
Sutton, Reed T., David Pincock, Daniel C. Baumgart, Daniel C. Sadowski, Richard N. Fedorak, and Karen I. Kroeker. 2020. “An Overview of Clinical Decision Support Systems: Benefits, Risks, and Strategies for Success.” NPJ Digital Medicine 3 (February): 17.
Un comentario en “Sistemas de soporte a las decisiones clínicas basados en inteligencia artificial”