Tag: Out-of-Distribution Testing
Técnicas de prueba para evaluar el comportamiento de modelos de machine learning y sistemas de IA cuando reciben entradas fuera de la distribución de los datos de entrenamiento. Detecta anomalías, deriva (drift), casos límite (edge cases) y vulnerabilidades relacionadas con datos no previstos, fundamental para la robustez y seguridad de los modelos en producción.