Tag: Ataque de Inyección de Prompt Indirecta
Técnica de ataque contra sistemas basados en Modelos de Lenguaje Extensos (LLM) donde se inyectan instrucciones maliciosas indirectamente a través de contenido externo procesado por el modelo, como documentos, correos electrónicos, páginas web o bases de datos. A diferencia de la inyección de prompt directa, el atacante no controla el prompt inicial, sino que manipula datos de entrada que el sistema LLM recupera e interpreta, causando comportamientos no autorizados, exfiltración de información o elusión de políticas de seguridad.