Expert Specialized Fine-Tuning (ESFT) は、専門家混合 (MoE) アーキテクチャを持つ大規模言語モデル (LLM) の効率的なカスタマイズ微調整手法です。タスク関連の部分のみを調整することでモデル性能を最適化し、効率性を向上させると同時に、リソースとストレージの使用を削減します。