Tag: AI Safety

Disciplina que estudia e implementa medidas para garantizar que los sistemas de IA operen de manera segura, fiable y alineada con los objetivos previstos. Cubre la alineación de modelos, la robustez frente a entradas adversarias, la interpretabilidad de las decisiones, la gestión de la incertidumbre, los mecanismos de seguridad, el monitoreo del comportamiento y la prevención de resultados dañinos o no intencionales en contextos críticos.