Tag: Large Language Model Security

Seguridad de los Large Language Models, desde amenazas específicas a modelos generativos hasta defensas implementables. Cubre inyección de prompts, jailbreak, exfiltración de datos a través de la salida, envenenamiento de modelos, riesgo de cadena de suministro en modelos base, vulnerabilidades de ajuste fino, así como controles de acceso, sandboxing y monitoreo en tiempo de ejecución para despliegues seguros de LLM.