phixtral-2x2_8
Modelo experto mixto, con un rendimiento superior al de los modelos expertos individuales.
Producto ComúnProductividadModelo experto mixtoGeneración de texto
phixtral-2x2_8 es el primer modelo experto mixto creado a partir de dos modelos microsoft/phi-2, inspirado en la arquitectura mistralai/Mixtral-8x7B-v0.1. Su rendimiento supera al de cada modelo experto individual. El modelo muestra un excelente desempeño en múltiples métricas de evaluación, incluyendo AGIEval, GPT4All, TruthfulQA y Bigbench. Emplea una versión personalizada de la biblioteca mergekit (rama mixtral) y una configuración específica. Los usuarios pueden ejecutar Phixtral en una GPU T4 gratuita con precisión de 4 bits en un cuaderno de Colab. El modelo tiene un tamaño de 4.46B parámetros y un tipo de tensor F16.
phixtral-2x2_8 Situación del tráfico más reciente
Total de visitas mensuales
29742941
Tasa de rebote
44.20%
Páginas promedio por visita
5.9
Duración promedio de la visita
00:04:44