A Universidade de Ciência e Tecnologia da China (USTC) e o Instituto de Pesquisa IDEA, em colaboração com a equipe Fengshenbang, desenvolveram um modelo de linguagem grande para a área médica em chinês chamado ChiMed-GPT. Este modelo é construído com base no modelo Ziya2-13B da equipe Fengshenbang, possuindo 13 bilhões de parâmetros. Ele foi treinado extensivamente, utilizando pré-treinamento completo, ajuste fino supervisionado e aprendizado por reforço com feedback humano para atender às necessidades do processamento de texto médico.
O ChiMed-GPT supera outros modelos de código aberto de tamanho similar em tarefas como extração de informações médicas, perguntas e respostas, e geração de diálogos. Em vários indicadores, ele também ultrapassa o GPT-3.5. O modelo não apenas processa dados de texto médico de forma eficiente, mas também gera respostas adequadas para consultas de pacientes.