HomeAI Tutorial

vllm

Public

A high-throughput and memory-efficient inference and serving engine for LLMs

Erstellungszeit2023-02-09T19:23:20
Aktualisierungszeit2024-05-09T16:46:28
https://docs.vllm.ai
64.9K
Stars
236
Stars Increase

Verwandte Projekte