Phi-3-mini-4k-instruct-onnx
Modelo ONNX quantizado Phi-3 Mini, suporta aceleração de inferência em várias plataformas de hardware.
Novo Produto PremiumProgramaçãoProcessamento de Linguagem NaturalModelo de IA Generativo
O Phi-3 Mini é um modelo de linguagem grande de código aberto, leve e de última geração, construído com base em dados sintéticos e dados de sites filtrados usados para o Phi-2, com foco em fornecer dados de alta qualidade e ricos em inferência. O modelo passou por um processo rigoroso de aprimoramento, combinando ajuste fino supervisionado e otimização de preferência direta para garantir o cumprimento preciso das instruções e fortes medidas de segurança. Este repositório fornece uma versão ONNX otimizada do Phi-3 Mini, que pode ser acelerada pela ONNX Runtime em CPUs e GPUs, suportando várias plataformas, como servidores, Windows, Linux e Mac, e fornecendo a melhor configuração de precisão para cada plataforma. O suporte DirectML da ONNX Runtime também permite que os desenvolvedores realizem aceleração de hardware em larga escala em dispositivos Windows com GPUs AMD, Intel e NVIDIA.
Phi-3-mini-4k-instruct-onnx Situação do Tráfego Mais Recente
Total de Visitas Mensais
29742941
Taxa de Rejeição
44.20%
Média de Páginas por Visita
5.9
Duração Média da Visita
00:04:44