LLM Guard es un conjunto de herramientas de código abierto diseñado para mejorar la seguridad de los modelos lingüísticos grandes (LLM), simplificando su adopción segura en las empresas. Ofrece una amplia gama de evaluadores para las entradas y salidas de los LLM, incluyendo la limpieza, la detección de lenguaje dañino y fugas de datos, y la prevención de ataques de inyección y evasión ("jailbreak"). El conjunto de herramientas aspira a convertirse en el kit de seguridad de código abierto preferido del mercado al proporcionar todas las herramientas necesarias en un solo lugar.

El lanzamiento de LLM Guard promoverá una adopción más amplia de los modelos lingüísticos grandes en las empresas, ofreciendo una mejor seguridad y control.