Die Universität für Wissenschaft und Technologie China (USTC) und das IDEA Forschungsinstitut haben in Zusammenarbeit mit dem „Fengshenbang“-Team (封神榜) ein großes Sprachmodell für den medizinischen Bereich namens ChiMed-GPT entwickelt. Dieses Modell basiert auf dem Ziya2-13B Modell des Fengshenbang-Teams und verfügt über 13 Milliarden Parameter. Es wurde durch umfassendes Pretraining, überwachtes Feinabstimmen und Reinforcement Learning mit menschlichem Feedback trainiert, um den Anforderungen der medizinischen Textverarbeitung gerecht zu werden.
ChiMed-GPT übertrifft andere Open-Source-Modelle ähnlicher Größe bei Aufgaben wie der Extraktion medizinischer Informationen, der Beantwortung von Fragen und der Generierung von Dialogen. In mehreren Kennzahlen übertrifft es sogar GPT-3.5. Das Modell kann nicht nur medizinische Textdaten effektiv verarbeiten, sondern auch Antworten auf Patientenfragen generieren, die gut verständlich und hilfreich sind.