Tag: Defensas de modelos ML

Técnicas defensivas para proteger modelos de machine learning contra ataques adversarios, poisoning, evasión y extracción de modelos. Incluye entrenamiento adversario, sanitización de entradas, privacidad diferencial, marca de agua en modelos (watermarking), limitación de tasa de consultas y monitoreo de predicciones anómalas en fase de inferencia.