AIbase
Biblioteca de productosNavegación de herramientas

vllm

Public

A high-throughput and memory-efficient inference and serving engine for LLMs

Hora de creación2023-02-09T19:23:20
Hora de actualización2024-05-09T16:46:28
https://docs.vllm.ai
45.1K
Stars
79
Stars Increase

Proyectos relacionados