YaFSDP es un framework de paralelismo de datos distribuido, diseñado para una excelente colaboración con arquitecturas de redes neuronales tipo Transformer. Es un 20% más rápido que FSDP tradicional al preentrenar modelos de lenguaje a gran escala (LLMs), y ofrece un mejor rendimiento bajo alta presión de memoria. YaFSDP está diseñado para reducir los costos de comunicación y operaciones de memoria.