Tag: Ataques multi-turno
Ataques contra sistemas de IA y modelos de lenguaje extensos (LLM) que aprovechan conversaciones de múltiples turnos para eludir filtros de seguridad, extraer información sensible o manipular el comportamiento del modelo. Técnicas que distribuyen payloads maliciosos a través de múltiples interacciones sucesivas, evadiendo controles basados en solicitudes únicas y explotando el contexto conversacional para inyección de prompts indirecta, jailbreak progresivo o extracción de datos reservados.