Das chinesische Sprachmodell Mengzi GPT-40B, ein Star unter den großen Sprachmodellen, wurde veröffentlicht. Es verfügt über 40 Milliarden Parameter und erreicht durch den Einsatz ausgereifterer Pretraining-Techniken und Reinforcement Learning eine durchschnittliche Leistungsverbesserung von 10-15% bei verschiedenen Aufgaben. Lan舟科技 (LanZhou Technology) hat eine zweite Finanzierungsrunde abgeschlossen und mit der Veröffentlichung von Mengzi GPT-40B die Fähigkeiten des Modells in multilingualen Aufgaben weiter verbessert.
Neues chinesisches Milliarden-Modell: Mengzi GPT mit 400 Milliarden Parametern veröffentlicht, durchschnittliche Verbesserung um 10-15%

量子位
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.