FuncionalidadesCasos de UsoBlogReferencia APIPor Qué CorePlexMLPrecios
Empezar Gratis

Análisis What-If y Comparación de Modelos

Dos módulos potentes en un espacio de trabajo. El Análisis What-If te permite explorar el comportamiento del modelo interactivamente. La Comparación de Modelos proporciona un espacio de diagnóstico de 20 pestañas con SHAP, PDP, curvas ROC, métricas de equidad y más en todos tus modelos.

platform.coreplexml.io
ML Studio con análisis What-If y espacio de Comparación de Modelos mostrando SHAP, PDP y diagnósticos de rendimiento

Key Capabilities

Everything you need to get the most out of this module.

Escenarios What-If

Compara escenarios base vs modificados lado a lado. Ve exactamente cómo los cambios afectan las predicciones con explicaciones SHAP.

Comparación de Modelos

Espacio de diagnóstico completo con 20 pestañas de análisis en 6 categorías. Compara hasta 10+ modelos simultáneamente.

Suite de Explicabilidad

Análisis SHAP, explicaciones LIME, importancia de variables, gráficos de dependencia parcial e interacciones de features.

Analítica Avanzada

Curvas ROC, matrices de confusión, gráficos de calibración, curvas de aprendizaje, métricas de equidad y constructor de ensembles.

What-If Analysis

Explora el comportamiento del modelo interactivamente. Cambia features de entrada, crea escenarios y compara predicciones con explicaciones SHAP — sin necesidad de código.

1. Crear Sesión de Análisis

Selecciona un modelo desplegado y proporciona valores de entrada baseline. El sistema genera automáticamente un formulario de entrada a partir del esquema de tu dataset.

2. Construir Escenarios

Modifica valores de features para crear escenarios alternativos. Cambia edad, ingresos, puntuación de crédito — cualquier entrada — y nombra cada escenario para fácil referencia.

3. Comparar Predicciones

Ejecuta todos los escenarios contra el modelo desplegado. Ve predicciones lado a lado con valores delta que muestran exactamente cómo cada cambio impacta el resultado.

4. Entender el Porqué

Las contribuciones SHAP revelan qué features impulsan cada predicción. Ve el impacto por feature con indicadores direccionales para explicaciones amigables al negocio.

Soporta todos los tipos de predicción

Regresión

Salidas numéricas con contribuciones SHAP

Precio predicho: $425,000 (+$32,000 vs baseline)
Clasificación Binaria

Probabilidad + etiqueta de clase con explicaciones

Fraude: probabilidad 87.3% (Alto Riesgo)
Multiclase

Todas las probabilidades de clase + clase predicha

Categoría A: 62%, B: 25%, C: 13%

Análisis de escenarios What-If

platform.coreplexml.io/studio/sessions/...
ML Studio con comparación de escenarios What-If, predicciones baseline y contribuciones SHAP

Comparación de escenarios con contribuciones SHAP

Espacio de Comparación de Modelos

Un espacio de diagnóstico completo con 20 pestañas de análisis en 6 categorías. Selecciona modelos de cualquier experimento, compáralos simultáneamente y toma decisiones basadas en datos sobre qué modelo desplegar.

20
Pestañas de Análisis
6
Categorías
10+
Modelos Comparados
CSV, PNG
Formatos de Exportación

Comparar

2 tabs
Overview

Gráfico de rendimiento comparando todos los modelos en AUC, Accuracy, F1, LogLoss o RMSE. Alterna entre vista de gráfico y tabla.

Metrics Table

Matriz completa de métricas — MAE, MSE, RMSE, RMSLE, AIC, tiempo de entrenamiento y más — de todos los modelos en una tabla exportable.

Clasificar

4 tabs
Confusion Matrix

Matrices de confusión lado a lado para cada modelo. Visualiza verdaderos/falsos positivos y negativos de un vistazo.

ROC Curves

Curvas ROC (Receiver Operating Characteristic) superpuestas para comparación directa. Valores AUC anotados por modelo.

Precision-Recall

Curvas PR que muestran el trade-off entre precisión y recall para cada modelo, crítico para datasets desbalanceados.

Calibration

Gráficos de calibración que muestran qué tan bien las probabilidades predichas coinciden con los resultados reales. Identifica modelos sobreconfiados o subconfiados.

Explicar

3 tabs
Variable Importance

Gráfico de barras agrupadas mostrando rankings de importancia de features en todos los modelos simultáneamente. Detecta qué features importan más.

SHAP Analysis

Impacto SHAP de features con tipos de gráfico bar, violin y beeswarm. Valores SHAP por modelo con explicaciones individuales de features.

Partial Dependence

PDP 1D, heatmaps de interacción 2D y gráficos ICE. Ve cómo cada feature influye en las predicciones a lo largo de su rango.

Analizar

3 tabs
Predictions

Gráficos de dispersión real vs predicho y análisis de residuos. Identifica patrones en los errores de predicción.

Error Analysis

Distribución de errores por rangos de valores de features. Encuentra dónde tu modelo tiene dificultades y por qué.

Data Exploration

Histogramas de distribución de features y análisis de correlación. Comprende los datos con los que se entrenaron tus modelos.

Avanzado

3 tabs
Gains & Lift

Gráficos de ganancias acumuladas y lift para evaluar la efectividad del modelo en diferentes percentiles de población.

Learning Curves

Rendimiento de entrenamiento vs validación a medida que aumenta el tamaño de datos. Diagnostica overfitting, underfitting y suficiencia de datos.

Fairness Metrics

Métricas de paridad demográfica, igualdad de oportunidades e impacto desigual. Audita modelos en busca de sesgo entre grupos protegidos.

Operaciones

4 tabs
Parameters

Tabla completa de comparación de hiperparámetros. Compara configuraciones entre modelos para entender qué impulsa las diferencias de rendimiento.

Ensemble Builder

Construye ensembles ponderados personalizados a partir de modelos seleccionados. Optimiza pesos y evalúa el modelo combinado.

Deployment

Métricas de latencia, throughput y uso de recursos para modelos desplegados. Compara características operacionales.

Experiment Tracking

Linaje completo del experimento — versión del dataset, configuración de entrenamiento, tiempo de ejecución y evolución de métricas a lo largo del tiempo.

Espacio de Comparación de Modelos

platform.coreplexml.io/automl/compare
Gráfico de rendimiento de Comparación de Modelos — comparación RMSE de 10 modelos con navegación lateral mostrando las 20 pestañas de análisis

Gráfico de comparación de rendimiento (10 modelos, 5 métricas)

platform.coreplexml.io/automl/compare → Tabla de Métricas
Tabla de todas las métricas comparando MAE, MSE, RMSE, RMSLE, tiempo de entrenamiento en 10 modelos

Tabla de métricas completa con exportación

platform.coreplexml.io/automl/compare → Importancia de Variables
Comparación de importancia de variables — gráfico de barras agrupadas mostrando importancia de features en los 10 modelos

Comparación de importancia de variables entre modelos

platform.coreplexml.io/automl/compare → Análisis SHAP
Análisis de impacto de features SHAP con gráfico de barras y explicaciones individuales de features

Análisis SHAP con impacto de features y explicaciones LIME

platform.coreplexml.io/automl/compare → Dependencia Parcial
Gráfico de Dependencia Parcial mostrando relación feature-objetivo con opciones de gráfico 1D, 2D e ICE

Dependencia parcial con modos 1D, mapa de calor 2D e ICE

platform.coreplexml.io/automl/compare → Curvas de Aprendizaje
Curvas de aprendizaje mostrando rendimiento de entrenamiento vs validación y diagnósticos de overfitting

Curvas de aprendizaje con diagnóstico de overfitting/underfitting

Análisis en todas las industrias

Desde evaluación de préstamos hasta calidad de manufactura — usa escenarios What-If y comparación de modelos para tomar mejores decisiones.

Suscripción de Préstamos

Usa What-If para probar cómo los cambios en ingresos o puntuación de crédito afectan la aprobación. Usa Comparar para seleccionar el mejor modelo entre decenas de candidatos con auditoría de equidad.

Pricing de Seguros

Compara candidatos de modelos en gráficos de calibración para asegurar predicciones de primas precisas. Ejecuta escenarios What-If para diferentes perfiles de riesgo.

Churn de Clientes

Compara modelos en curvas ROC y precisión-recall para datos de churn desbalanceados. Usa SHAP para explicar qué factores impulsan las predicciones de churn.

Resultados en Salud

Ejecuta métricas de equidad en grupos demográficos. Usa gráficos PDP para entender cómo la dosis de tratamiento afecta los resultados predichos.

Detección de Fraude

Compara el rendimiento del modelo en diferentes umbrales usando gráficos de ganancias/lift. Pruebas What-If para transacciones en casos extremos.

Calidad en Manufactura

Usa curvas de aprendizaje para determinar si más datos de entrenamiento ayudarían. Construye ensembles optimizados a partir de múltiples tipos de modelos.

Automatiza con el SDK

Tanto las sesiones What-If como los datos de comparación de modelos están disponibles mediante programación a través del Python SDK.

what_if_analysis.py
from coreplexml import CorePlexMLClient

client = CorePlexMLClient(
    base_url="https://api.coreplexml.io",
    api_key="sk_your_api_key"
)

# Create a What-If session
session = client.studio.create_session(
    project_id="proj_abc",
    deployment_id="dep_fraud_v2",
    baseline_input={
        "amount": 150, "merchant": "grocery",
        "hour": 14, "country": "US"
    }
)
print(f"Baseline prediction: {session['baseline']['prediction']}")

# Add high-risk scenario
scenario = client.studio.create_scenario(
    session_id=session["id"],
    name="High-risk transaction",
    changes={"amount": 9500, "hour": 3, "country": "NG"}
)

# Run and compare
result = client.studio.run_scenario(scenario["id"])
print(f"Scenario: {result['prediction']} (delta: {result['delta']:+.2%})")
model_comparison.py
# Model Comparison API
models = client.models.list(
    project_id="proj_abc",
    experiment_id="exp_t1",
    limit=10
)

# Get metrics for comparison
for model in models["items"]:
    metrics = model["metrics"]
    print(f"{model['algorithm']}: "
          f"RMSE={metrics.get('rmse', 'N/A')}, "
          f"MAE={metrics.get('mae', 'N/A')}")

# Get SHAP values for a model
shap = client.models.get_shap(
    model_id="mod_xgb_v2",
    feature_count=10
)
for feat in shap["features"]:
    print(f"  {feat['name']}: {feat['mean_impact']:.4f}")

# Get variable importance comparison
varimp = client.models.get_variable_importance(
    model_id="mod_xgb_v2"
)

# Get partial dependence plot data
pdp = client.models.get_pdp(
    model_id="mod_xgb_v2",
    feature="tenure_months",
    nbins=20
)

API de ML Studio

Endpoints para sesiones What-If, gestión de escenarios, métricas de modelos, análisis SHAP, dependencia parcial y tablas de clasificación de experimentos.

POST
/api/studio/sessions

Crear una sesión de análisis What-If con entrada baseline

GET
/api/studio/deployments/{id}/schema

Obtener esquema de entrada para generación automática de formularios

POST
/api/studio/sessions/{id}/scenarios

Crear un nuevo escenario con valores de features modificados

POST
/api/studio/scenarios/{id}/run

Ejecutar escenario y obtener predicción con SHAP

GET
/api/studio/sessions/{id}/compare

Comparar todos los escenarios lado a lado con deltas

GET
/api/models

Listar modelos con filtros por proyecto, experimento y algoritmo

GET
/api/models/{id}

Obtener detalles del modelo, métricas e hiperparámetros

GET
/api/models/{id}/variable-importance

Obtener rankings de importancia de variables para un modelo

GET
/api/models/{id}/shap

Obtener valores de impacto de features SHAP (barras, violin, beeswarm)

GET
/api/models/{id}/pdp

Obtener datos de gráfico de dependencia parcial (1D, 2D, ICE)

GET
/api/models/{id}/contributions

Obtener contribuciones SHAP por predicción

GET
/api/experiments/{id}/leaderboard

Obtener tabla de clasificación de modelos con métricas

¿Listo para empezar?

Empieza a construir con CorePlexML hoy. Nivel gratuito disponible — no se requiere tarjeta de crédito.