Tag: Prompt Injection
Técnica de ataque contra sistemas de IA y modelos de lenguaje extenso que explota entradas maliciosas para manipular el comportamiento del modelo, omitir restricciones, extraer datos sensibles o realizar acciones no autorizadas mediante la creación de prompts y el envenenamiento de contexto.