Baichuan2-192K presenta el modelo de lenguaje grande con la ventana de contexto más larga del mundo: Baichuan2-192K, capaz de procesar hasta 350.000 caracteres en una sola entrada, superando a Claude2. Baichuan2-192K no solo supera a Claude2 en la longitud de la ventana de contexto, sino que también lo hace en la calidad de generación de texto largo, comprensión de contextos largos, y en tareas como preguntas y respuestas con textos largos y la generación de resúmenes. Baichuan2-192K, mediante la optimización exhaustiva de algoritmos e ingeniería, ha logrado un equilibrio entre la longitud de la ventana y el rendimiento del modelo, consiguiendo mejorar ambos simultáneamente. Baichuan2-192K ya ha abierto su API para usuarios empresariales y se está implementando en sectores como el legal, los medios de comunicación y las finanzas.