Tag: Protección contra Model Poisoning
Protección de modelos de machine learning contra ataques de envenenamiento (poisoning) durante las fases de entrenamiento y fine-tuning. Incluye técnicas de sanitización de datos, validación de entradas de entrenamiento, detección de puertas traseras (backdoors), defensas contra la manipulación de datasets y estrategias de hardening para prevenir compromisos intencionales que alteren el comportamiento del modelo.