Phi-3-mini-4k-instruct-onnx
Modelo ONNX cuantificado de Phi-3 Mini, admite aceleración de inferencia en múltiples plataformas de hardware
Nuevo Producto PremiumProgramaciónProcesamiento del Lenguaje NaturalModelo de IA Generativo
Phi-3 Mini es un modelo de lenguaje grande de código abierto ligero y de vanguardia, construido sobre datos sintéticos y datos de sitios web filtrados usados para Phi-2, con el objetivo de proporcionar datos de alta calidad y gran intensidad de inferencia. El modelo ha sido sometido a un riguroso proceso de mejora, que combina el ajuste fino supervisado y la optimización de preferencias directas para garantizar un seguimiento preciso de las instrucciones y sólidas medidas de seguridad. Este repositorio proporciona una versión ONNX optimizada de Phi-3 Mini, que se puede acelerar mediante ONNX Runtime en CPU y GPU. Admite múltiples plataformas como servidores, Windows, Linux y Mac, y ofrece la mejor configuración de precisión para cada plataforma. La compatibilidad con DirectML de ONNX Runtime también permite a los desarrolladores lograr una aceleración de hardware a gran escala en dispositivos Windows con GPU de AMD, Intel y NVIDIA.
Phi-3-mini-4k-instruct-onnx Situación del tráfico más reciente
Total de visitas mensuales
29742941
Tasa de rebote
44.20%
Páginas promedio por visita
5.9
Duración promedio de la visita
00:04:44