Phi-3-mini-4k-instruct-onnx

Modelo ONNX quantizado Phi-3 Mini, suporta aceleração de inferência em várias plataformas de hardware.

Novo Produto PremiumProgramaçãoProcessamento de Linguagem NaturalModelo de IA Generativo
O Phi-3 Mini é um modelo de linguagem grande de código aberto, leve e de última geração, construído com base em dados sintéticos e dados de sites filtrados usados para o Phi-2, com foco em fornecer dados de alta qualidade e ricos em inferência. O modelo passou por um processo rigoroso de aprimoramento, combinando ajuste fino supervisionado e otimização de preferência direta para garantir o cumprimento preciso das instruções e fortes medidas de segurança. Este repositório fornece uma versão ONNX otimizada do Phi-3 Mini, que pode ser acelerada pela ONNX Runtime em CPUs e GPUs, suportando várias plataformas, como servidores, Windows, Linux e Mac, e fornecendo a melhor configuração de precisão para cada plataforma. O suporte DirectML da ONNX Runtime também permite que os desenvolvedores realizem aceleração de hardware em larga escala em dispositivos Windows com GPUs AMD, Intel e NVIDIA.
Abrir Site

Phi-3-mini-4k-instruct-onnx Situação do Tráfego Mais Recente

Total de Visitas Mensais

29742941

Taxa de Rejeição

44.20%

Média de Páginas por Visita

5.9

Duração Média da Visita

00:04:44

Phi-3-mini-4k-instruct-onnx Tendência de Visitas

Phi-3-mini-4k-instruct-onnx Distribuição Geográfica das Visitas

Phi-3-mini-4k-instruct-onnx Fontes de Tráfego

Phi-3-mini-4k-instruct-onnx Alternativas