Tag: Adversarial Prompt Engineering
Técnicas de manipulación de prompts para inducir a modelos de lenguaje y sistemas de IA generativa a producir resultados no previstos, eludir filtros de seguridad o revelar información sensible. Incluye inyección de prompts, jailbreaking, manipulación de contexto y estrategias de evasión de los guardrails implementados en modelos de lenguaje extenso.