Recentemente, foi divulgado o ranking de modelos de IA gerado por votação cega de milhões de usuários em todo o mundo, e o modelo de IA nacional "Yi-Lightning" fez uma reviravolta, superando o GPT-4, que ocupava o primeiro lugar há muito tempo.
"Yi-Lightning" foi desenvolvido pela renomada empresa chinesa de IA Zero One, e ficou entre os melhores em várias subclassificações, ocupando o terceiro lugar no ranking de matemática, empatado com gigantes internacionais.
É importante destacar que a pontuação de "Yi-Lightning" é quase idêntica à do modelo xAI Grok-2-08-13, recém-lançado por Musk, e está bem à frente de outros concorrentes, como GPT-4o-2024-05-13, GPT-4o-mini-2024-07-18 e Claude3.5Sonnet.
As regras de classificação desta classificação foram significativamente alteradas, dando maior ênfase à capacidade dos modelos de IA de resolver problemas reais, em vez de apenas se concentrar no comprimento e no estilo das respostas.
Sob as novas regras, "Yi-Lightning" ainda se mantém no mesmo nível que o GPT-4 e o Grok-2, demonstrando sua força.
A tradução é uma das áreas importantes de aplicação dos modelos de inteligência artificial, testando completamente a capacidade do modelo em termos de compreensão da linguagem, geração, comunicação interlínguas e compreensão do contexto. Em comparação com modelos como Qwen2.5-72b-Instruct, DeepSeek-V2.5 e Doubao-pro, o Yi-Lightning demonstrou um desempenho excepcional em tarefas de tradução: não apenas sua velocidade de processamento é mais rápida, mas os resultados da tradução também são mais literários e mais alinhados com os hábitos de expressão em chinês.
Por exemplo, selecionei aleatoriamente um trecho em inglês sobre a Catedral de Notre Dame, e o Yi-Lightning não apenas traduziu mais rápido, mas o resultado da tradução também se encaixa melhor no contexto chinês:
As inovações tecnológicas por trás do modelo Yi-Lightning também são impressionantes. Ele utiliza uma arquitetura de modelo de especialista misto, otimizando o mecanismo de atenção mista e reduzindo significativamente o custo de inferência ao processar dados de sequência longa. Além disso, o "Yi-Lightning" introduziu um mecanismo de atenção entre camadas, tornando a troca de informações entre diferentes camadas mais eficiente.
O que é mais interessante é que o "Yi-Lightning" pode selecionar dinamicamente a combinação mais adequada de redes de especialistas de acordo com a dificuldade da tarefa. Na fase de treinamento, todas as redes de especialistas são ativadas, mas na fase de inferência, o "Yi-Lightning" seleciona e ativa os especialistas relevantes de acordo com a tarefa específica, garantindo que ele possa lidar com vários desafios com facilidade.
"Yi-Lightning" utiliza uma arquitetura de modelo de especialista misto e um mecanismo de atenção mista otimizado, capaz de processar dados de sequência longa de forma eficiente e realizar a troca de informações entre diferentes camadas por meio de um mecanismo de atenção entre camadas.
O que é ainda mais impressionante é que "Yi-Lightning" pode selecionar dinamicamente a combinação mais adequada de redes de especialistas de acordo com a dificuldade da tarefa, garantindo que ele possa lidar com vários desafios com facilidade.
O Dr. Kai-Fu Lee, fundador e CEO da Zero One, disse que o modelo "Yi-Lightning" utilizou várias estratégias na fase de pré-treinamento para garantir que o modelo não apenas seja rápido, mas também aprenda um conhecimento mais amplo.
Ao mesmo tempo, a estratégia de preços de "Yi-Lightning" também é muito competitiva, com apenas 0,99 yuan por milhão de tokens, oferecendo uma excelente relação custo-benefício. O Dr. Kai-Fu Lee também apontou que o excelente desempenho de "Yi-Lightning" reduziu a diferença entre a IA doméstica e os principais modelos de IA internacionais para cinco meses, o que não é apenas um avanço tecnológico, mas também uma demonstração de confiança na indústria de IA doméstica.
Referência: https://x.com/lmarena_ai/status/1846245604890116457