phixtral-2x2_8

Modelo experto mixto, con un rendimiento superior al de los modelos expertos individuales.

Producto ComúnProductividadModelo experto mixtoGeneración de texto
phixtral-2x2_8 es el primer modelo experto mixto creado a partir de dos modelos microsoft/phi-2, inspirado en la arquitectura mistralai/Mixtral-8x7B-v0.1. Su rendimiento supera al de cada modelo experto individual. El modelo muestra un excelente desempeño en múltiples métricas de evaluación, incluyendo AGIEval, GPT4All, TruthfulQA y Bigbench. Emplea una versión personalizada de la biblioteca mergekit (rama mixtral) y una configuración específica. Los usuarios pueden ejecutar Phixtral en una GPU T4 gratuita con precisión de 4 bits en un cuaderno de Colab. El modelo tiene un tamaño de 4.46B parámetros y un tipo de tensor F16.
Abrir sitio web

phixtral-2x2_8 Situación del tráfico más reciente

Total de visitas mensuales

29742941

Tasa de rebote

44.20%

Páginas promedio por visita

5.9

Duración promedio de la visita

00:04:44

phixtral-2x2_8 Tendencia de visitas

phixtral-2x2_8 Distribución geográfica de las visitas

phixtral-2x2_8 Fuentes de tráfico

phixtral-2x2_8 Alternativas