Tag: Testing for Input Leakage
Verificación de la capacidad de un sistema de IA para exponer involuntariamente entradas de usuario o prompts de sistema a través de salidas, logs, caché o canales laterales. Cubre técnicas de prueba para detectar fugas de información sensible mediante ataques de reflexión, eco de prompts, sangrado de contexto entre sesiones y exposición de instrucciones de sistema o plantillas internas del modelo.