Das Training von GPT-5 benötigt 50.000 H100-Chips. Die weltweite Nachfrage nach H100 beläuft sich auf insgesamt 430.000 Stück. Die Knappheit an Nvidia-GPUs ist der Hauptgrund für dieses Problem. Der Artikel erklärt detailliert, warum die H100 die bevorzugte Wahl für die Entwicklung großer Sprachmodelle ist und welche Probleme die Nvidia-GPU-Lieferkette aufweist. Lesenswert für alle, die sich für die GPU-Knappheit interessieren.