Zero Bubble Pipeline Parallelism是大规模分布式训练的关键组成部分之一,其效率受到管道泡沫的影响。我们引入了一种调度策略,成功实现了在同步训练语义下零管道泡沫。这一改进的关键思想是将反向计算分为两部分,一部分计算输入的梯度,另一部分计算参数的梯度。基于这一思想,我们手工设计了新颖的管道调度,明显优于基准方法。我们进一步开发了一种算法,根据特定模型配置和内存限制自动找到最佳调度。此外,为了真正实现零泡泡,我们引入了一种新颖的技术,在优化器步骤期间绕过同步。实验评估表明,我们的方法在类似内存限制下的吞吐量比1F1B调度高出了最多23%。当内存约束放宽时,这一数字可以进一步提高至31%。我们相信我们的结果标志着在发挥管道并行潜力方面迈出了重要的一步。