Tag: Testing for Prompt Injection
La inyección de prompts es una técnica de ataque contra sistemas basados en Large Language Models (LLM) que permite manipular el comportamiento del modelo insertando instrucciones maliciosas en el prompt del usuario. Las pruebas verifican si una aplicación de IA es vulnerable a entradas manipuladas que sobrescriben, eluden o alteran las instrucciones del sistema, causando salidas no autorizadas, fugas de datos o ejecución de acciones inesperadas. Incluye técnicas de inyección directa, inyección indirecta a través de contenido externo y jailbreak para eludir políticas de seguridad.