RWKV-6 Mélange d'Experts

Le plus grand modèle de la famille RWKV, utilisant la technique MoE pour améliorer l'efficacité.

Produit OrdinaireProgrammationIAMachine Learning
Flock of Finches 37B-A11B v0.1 est le dernier né de la famille RWKV. Il s'agit d'un modèle expérimental disposant de 1,1 milliard de paramètres actifs. Bien qu'il n'ait été entraîné que sur 109 milliards de jetons, il obtient des scores comparables à ceux du modèle Finch 14B récemment publié sur les benchmarks courants. Ce modèle utilise une méthode MoE (Mixture of Experts) parcimonieuse et efficace, activant seulement une partie des paramètres sur un jeton donné, ce qui permet de gagner du temps et de réduire les ressources de calcul pendant l'entraînement et l'inférence. Bien que cette architecture implique une consommation de VRAM plus élevée, nous pensons que la possibilité d'entraîner et d'exécuter des modèles plus puissants à moindre coût est un atout considérable.
Ouvrir le site Web

RWKV-6 Mélange d'Experts Dernière situation du trafic

Nombre total de visites mensuelles

179

Taux de rebond

26.72%

Nombre moyen de pages par visite

3.0

Durée moyenne de la visite

00:03:45

RWKV-6 Mélange d'Experts Tendance des visites

RWKV-6 Mélange d'Experts Distribution géographique des visites

RWKV-6 Mélange d'Experts Sources de trafic

RWKV-6 Mélange d'Experts Alternatives