Tag: Pruebas de Seguridad de Prompt
Metodologías de prueba para identificar vulnerabilidades de inyección de prompts, fuga de prompts (prompt leaking), jailbreak y manipulación de sistemas basados en modelos de lenguaje extenso (LLM). Cubre técnicas de validación de entrada, sanitización de prompts, pruebas de límites (boundary testing) y evaluación de la robustez de los guardrails implementados en aplicaciones de IA generativa.