Tag: Testing for Runtime Model Poisoning

Evaluación de la resiliencia de modelos de IA/ML contra ataques de envenenamiento durante la ejecución, donde entradas maliciosas o retroalimentación manipulada alteran el comportamiento del modelo en producción. Incluye pruebas para inyección de puertas traseras, envenenamiento de datos incremental, reentrenamiento adversario y compromiso de pipelines de aprendizaje continuo en entornos operativos.