Na WAVE SUMMIT 2024, conferência para desenvolvedores de aprendizado profundo, o Baidu lançou oficialmente, por meio de seu CTO Wang Haifeng, o Wenxin Big Model 4.0 Turbo. Esta nova versão apresenta melhorias significativas em velocidade e eficiência, e já está disponível no site yiyan.baidu.com.

A velocidade de resposta do Wenxin Big Model 4.0 Turbo foi significativamente aprimorada. A geração de textos longos com mais de mil caracteres leva apenas cerca de 20 segundos, com alta qualidade de conteúdo.

微信截图_20240702140753.png

Em termos de eficácia, o novo modelo se destaca em vários cenários de aplicação. Ele consegue obter informações rapidamente, com alta exigência quanto à veracidade e precisão das informações. Por exemplo, em testes de eficácia de perguntas e respostas, o processamento de notícias atuais demonstra sua capacidade de resposta em tempo real, fontes de informação ricas e apresentação altamente estruturada.

Em perguntas e respostas sobre conhecimento profissional, como o método de avaliação relativa do modelo de avaliação de ações, as respostas do modelo são profissionais, confiáveis e apresentam uma análise clara e organizada. Ao lidar com grandes quantidades de documentos e informações da web, o modelo consegue resumir e sintetizar informações com precisão, integrando efetivamente o conteúdo de vários documentos.

Além disso, em cenários de desenvolvimento de código, o modelo consegue gerar códigos com lógica correta e comentários detalhados.

微信截图_20240702140848.png

O Wenxin Big Model 4.0 Turbo já está disponível para todos os usuários da versão profissional do Wenxin Yiyan, com uma oportunidade de teste gratuito. Os usuários podem acessar o site para obter um cartão de experiência temporário e experimentar pessoalmente esta versão aprimorada do modelo de linguagem grande.