WebLLM
Motor de inferencia de modelos lingüísticos de alto rendimiento en el navegador
Producto ComúnProductividadIANavegador
WebLLM es un motor de inferencia de modelos lingüísticos de alto rendimiento dentro del navegador, que utiliza WebGPU para la aceleración por hardware, permitiendo que la potente operación de modelos lingüísticos se ejecute directamente en el navegador web, sin necesidad de procesamiento del lado del servidor. Este proyecto tiene como objetivo integrar directamente los modelos lingüísticos de gran tamaño (LLM) en el cliente, con lo que se reducen los costes, se mejora la personalización y se protege la privacidad. Es compatible con varios modelos y es compatible con la API de OpenAI, se integra fácilmente en proyectos, admite la interacción en tiempo real y el procesamiento por secuencias, siendo una opción ideal para construir asistentes de IA personalizados.
WebLLM Situación del tráfico más reciente
Total de visitas mensuales
11197
Tasa de rebote
67.10%
Páginas promedio por visita
1.9
Duración promedio de la visita
00:01:26