A DeepSeek, pertencente à gigante chinesa de fundos de investimento privado, Fang Holdings, lançou recentemente seu mais novo modelo de linguagem grande focado em raciocínio, o R1-Lite-Preview. Atualmente, o modelo está disponível para o público apenas através do DeepSeek Chat, uma plataforma de chatbot online.
A DeepSeek é conhecida por suas contribuições inovadoras no ecossistema de IA de código aberto. Este novo lançamento visa fornecer ao público capacidades de raciocínio de alto nível, mantendo o compromisso com a acessibilidade e a transparência. Embora o R1-Lite-Preview esteja atualmente disponível apenas em um aplicativo de bate-papo, ele já atraiu muita atenção por seu desempenho, que se aproxima ou até mesmo supera o modelo o1-preview recentemente lançado pela OpenAI.
O R1-Lite-Preview utiliza raciocínio em "cadeia de pensamento", mostrando os diferentes processos de pensamento que ele passa ao responder às consultas do usuário.
Embora algumas cadeias de pensamento possam parecer sem sentido ou incorretas para os humanos, no geral, as respostas do R1-Lite-Preview são bastante precisas e conseguem resolver alguns problemas "armadilha" que modelos de IA tradicionais poderosos, como GPT-4o e da série Claude, enfrentam, como por exemplo: "Quantas letras R existem na palavra 'morango'?" e "Qual é maior, 9,11 ou 9,9?".
Segundo a DeepSeek, o modelo se destaca em tarefas que exigem raciocínio lógico, pensamento matemático e resolução de problemas em tempo real. Seu desempenho supera o do OpenAI o1-preview em benchmarks estabelecidos como AIME (American Invitational Mathematics Examination) e MATH.
Além disso, a DeepSeek divulgou dados expandidos do modelo, mostrando uma tendência de aumento constante da precisão ao fornecer mais tempo ou "tokens de pensamento" para resolver problemas. Os gráficos destacam que, com o aumento da profundidade do pensamento, a pontuação do modelo em benchmarks como o AIME melhora.
Atualmente, o lançamento do R1-Lite-Preview apresenta desempenho excelente em benchmarks-chave, conseguindo lidar com uma variedade de tarefas, desde matemática complexa até cenários lógicos, com pontuações comparáveis a modelos de raciocínio de ponta como GPQA e Codeforces. O processo de raciocínio transparente do modelo permite que os usuários observem em tempo real suas etapas lógicas, aumentando a responsabilidade e a credibilidade do sistema.
É importante notar que a DeepSeek ainda não lançou o código completo para análise ou testes de benchmark independentes de terceiros, nem forneceu uma API para testes independentes. A empresa ainda não publicou artigos de blog ou documentação técnica explicando o treinamento ou a construção do R1-Lite-Preview, deixando sua origem ainda em dúvida.
O R1-Lite-Preview pode ser usado gratuitamente através do DeepSeek Chat (chat.deepseek.com), mas seu modo avançado de "pensamento profundo" é limitado a 50 mensagens por dia, permitindo que os usuários experimentem sua poderosa capacidade. A DeepSeek planeja lançar uma versão de código aberto dos modelos da série R1 e a API correspondente, apoiando ainda mais o desenvolvimento da comunidade de IA de código aberto.
A DeepSeek continua impulsionando a inovação na área de IA de código aberto. O lançamento do R1-Lite-Preview adiciona novas dimensões em termos de raciocínio e escalabilidade. Com empresas e pesquisadores explorando aplicações de IA com raciocínio intensivo, o compromisso aberto da DeepSeek garantirá que seu modelo seja um recurso importante para o desenvolvimento e a inovação.
Entrada oficial: https://www.deepseek.com/
Destaques:
🌟 A DeepSeek lançou o modelo R1-Lite-Preview, com desempenho próximo e superior ao OpenAI o1.
📊 O modelo mostra um processo de raciocínio transparente, permitindo que os usuários observem as etapas lógicas em tempo real.
🔍 Capacidade significativa de aprendizado profundo e raciocínio lógico, com lançamento futuro de versão de código aberto e API.