Das Zeitalter der „1-Bit-großen Sprachmodelle“ ist angebrochen. Microsoft und die Chinesische Akademie der Wissenschaften (UCAS) haben mit BitNet b1.58 eine Methode vorgestellt, die Modellparameter in eine ternäre Darstellung umwandelt. Dies reduziert grundlegend den Speicherbedarf und vereinfacht die Berechnungen des Modells. Vergleiche der Performance mit Modellen unterschiedlicher Größe zeigten Geschwindigkeitsverbesserungen und eine geringere Speichernutzung. Die Methode hat in Online-Foren bereits lebhafte Diskussionen ausgelöst.