Inteligencia Artificial Explicable para el Tratamiento de la Leucemia Mieloide Aguda: Un Enfoque Híbrido
Quiero compartirles un nuevo análisis que realicé, enfocado en el uso de inteligencia artificial explicable para apoyar la toma de decisiones médicas en casos de leucemia mieloide aguda (LMA). El objetivo principal es combinar interpretabilidad y buen rendimiento predictivo, utilizando modelos de Explainable Boosting Machine (EBM) y XGBoost, complementados con explicaciones de SHAP.
Enlace al notebook: https://www.kaggle.com/code/esaihuamanmeza/version1-0-5
¿De qué trata este análisis?
Recolección y preprocesamiento de datos
Se parte de información clínica y de laboratorio de pacientes con LMA.
Se limpian las variables y se seleccionan características relevantes (mutaciones, expresión genética, tratamiento, etc.).
Modelos utilizados
EBM (Explainable Boosting Machine): aporta una visión global del comportamiento del modelo, de modo que podamos entender qué variables están influyendo más en la predicción.
XGBoost: mejora el rendimiento gracias a su capacidad de modelado no lineal y su ajuste de hiperparámetros.
Ensamble por stacking: Se combinan los modelos EBM y XGBoost con un meta-modelo de regresión logística.
¿Cómo se entrenan los modelos?
Explicabilidad global con EBM
EBM da una visión clara de cuáles variables (clínicas, mutaciones específicas o niveles de expresión) tienen más peso en la predicción de la supervivencia.
Optimización de XGBoost
Se realizó una búsqueda de hiperparámetros con validación cruzada, usando GridSearchCV.
Tras seleccionar la mejor configuración, XGBoost suele ofrecer buenos resultados en datasets de alta dimensionalidad.
Explicaciones locales con SHAP
El objetivo es entender, caso por caso, por qué XGBoost asigna determinada probabilidad de supervivencia.
Esto es valioso para médicos y especialistas que necesitan justificaciones específicas para cada paciente.
Stacking ensemble
Se toma la salida de EBM y XGBoost (probabilidades de cada clase) y se entrena un meta-modelo de regresión logística para combinar ambas perspectivas.
El stacking funciona mejor en algunas combinaciones, sobre todo cuando hay alta complementariedad entre EBM y XGBoost.
Resultados
El análisis comparó distintas combinaciones de datos:
CLIN: Datos clínicos
MUT: Datos de mutaciones genéticas
EXP: Datos de expresión genética
Y mezclas como CLINMUT, CLINEXP, MUTEXP y CLINMUTEXP
A continuación, se muestran los resultados en el conjunto de prueba final, medidos con F1 y AUC (Área bajo la curva ROC):
Observaciones principales:
Datos de expresión (EXP): Aquí el stacking sobresale con un F1 de 0.7794 y AUC de 0.7444, lo que indica que la información sobre la expresión genética aporta gran valor predictivo.
Combinaciones con EXP: Tanto en CLINEXP, MUTEXP y CLINMUTEXP, los resultados se mantienen por encima de 0.68–0.71 de F1 en EBM y XGBoost, y en general el stacking logra mejoras adicionales en AUC.
Datos solo clínicos (CLIN): Menor desempeño global, con F1 en torno a 0.53–0.57. Sin embargo, XGBoost supera ligeramente a EBM en esta combinación.
Datos de mutaciones (MUT): Curiosamente, EBM y XGBoost empatan (0.6429 en F1), pero el stacking no aporta ganancia (incluso baja a 0.4857). Esto sugiere que el metamodelo no siempre mejora la combinación, posiblemente por la naturaleza de estos datos.
Conclusiones
Los conjuntos con datos de expresión genética (EXP) mostraron un mejor rendimiento.
El stacking, aunque no siempre da mejores resultados, depende mucho de la combinación de datos y de la complementariedad de los modelos base.
Interpretabilidad vs. Precisión: Con EBM se gana transparencia y explicaciones globales, mientras que XGBoost y SHAP ofrecen interpretaciones más detalladas a nivel local.
Con este enfoque, podemos brindar un sistema que no solo prediga la supervivencia en LMA, sino que también explique la razón de dicha predicción. Esto resulta especialmente relevante en contextos clínicos, donde la confianza y la comprensión del modelo son vitales.