LLM Guardは、大規模言語モデル(LLM)のセキュリティを強化するためのオープンソースツールキットです。企業におけるLLMの安全な導入を簡素化することを目的としています。
有害な言語やデータ漏洩の検出、注入や脱獄攻撃の防止など、LLMの入力と出力に対して幅広い評価ツールを提供します。データのクレンジング機能も備えています。
必要なツールを一括で提供することで、市場をリードするオープンソースセキュリティツールキットを目指しています。
LLM Guardの公開により、企業における大規模言語モデルのより広範な活用が促進され、企業はより優れたセキュリティと制御性を確保できるようになります。