Phi-3-mini-4k-instruct-onnx

Modelo ONNX cuantificado de Phi-3 Mini, admite aceleración de inferencia en múltiples plataformas de hardware

Nuevo Producto PremiumProgramaciónProcesamiento del Lenguaje NaturalModelo de IA Generativo
Phi-3 Mini es un modelo de lenguaje grande de código abierto ligero y de vanguardia, construido sobre datos sintéticos y datos de sitios web filtrados usados para Phi-2, con el objetivo de proporcionar datos de alta calidad y gran intensidad de inferencia. El modelo ha sido sometido a un riguroso proceso de mejora, que combina el ajuste fino supervisado y la optimización de preferencias directas para garantizar un seguimiento preciso de las instrucciones y sólidas medidas de seguridad. Este repositorio proporciona una versión ONNX optimizada de Phi-3 Mini, que se puede acelerar mediante ONNX Runtime en CPU y GPU. Admite múltiples plataformas como servidores, Windows, Linux y Mac, y ofrece la mejor configuración de precisión para cada plataforma. La compatibilidad con DirectML de ONNX Runtime también permite a los desarrolladores lograr una aceleración de hardware a gran escala en dispositivos Windows con GPU de AMD, Intel y NVIDIA.
Abrir sitio web

Phi-3-mini-4k-instruct-onnx Situación del tráfico más reciente

Total de visitas mensuales

29742941

Tasa de rebote

44.20%

Páginas promedio por visita

5.9

Duración promedio de la visita

00:04:44

Phi-3-mini-4k-instruct-onnx Tendencia de visitas

Phi-3-mini-4k-instruct-onnx Distribución geográfica de las visitas

Phi-3-mini-4k-instruct-onnx Fuentes de tráfico

Phi-3-mini-4k-instruct-onnx Alternativas