Tag: Testing for Poisoned Training Sets
El envenenamiento de datos de entrenamiento es un ataque a la cadena de suministro de modelos de IA donde se introducen datos maliciosos o manipulados en el dataset de entrenamiento para comprometer el comportamiento del modelo. Las pruebas verifican si un sistema de IA fue entrenado con datos contaminados que causan sesgos intencionales, puertas traseras, salidas manipuladas ante disparadores específicos o degradación del rendimiento en ciertas entradas. Incluye análisis de procedencia de datos, detección de patrones anómalos y validación de la robustez del modelo contra datasets corruptos.