Tag: Técnicas de Jailbreak en IA
Técnicas para omitir los controles de seguridad y guardrails implementados en modelos de inteligencia artificial generativa. Incluye inyecciones de prompts avanzadas, ataques de rol (role-playing), manipulación de contexto, evasión de codificación y estrategias para eludir el filtrado de contenido, la alineación de seguridad y la aplicación de políticas en modelos de lenguaje extenso (LLM).