A IBM lançou recentemente seu mais recente modelo de linguagem grande, o Granite3.2, projetado para fornecer às empresas e à comunidade de código aberto uma solução de IA empresarial “pequena, eficiente e prática”. O modelo não apenas possui capacidades multimodais e de raciocínio, mas também melhora a flexibilidade e a rentabilidade, tornando-o mais fácil para os usuários adotarem.
O Granite3.2 introduz um modelo de linguagem visual (VLM) para processar documentos, classificar e extrair dados. A IBM afirma que este novo modelo atinge ou supera modelos maiores, como o Llama3.211B e o Pixtral12B, em alguns benchmarks importantes. Além disso, o modelo de 8B do Granite3.2 mostrou capacidade de igualar ou superar modelos maiores em benchmarks padrão de raciocínio matemático.
Para melhorar a capacidade de raciocínio, alguns modelos do Granite3.2 também possuem a funcionalidade de “cadeia de pensamento”, que pode esclarecer as etapas intermediárias de raciocínio. Embora esta funcionalidade exija maior capacidade computacional, os usuários podem ativá-la ou desativá-la conforme necessário para otimizar a eficiência e reduzir os custos gerais. Sriram Raghavan, vice-presidente de pesquisa de IA da IBM, disse no lançamento que a próxima geração de IA se concentra em eficiência, integração e impacto real, permitindo que as empresas alcancem resultados poderosos sem ultrapassar o orçamento.
Além da melhoria da capacidade de raciocínio, o Granite3.2 também lançou uma versão menor do modelo de segurança “Granite Guardian”, que, apesar de ter sido reduzido em 30%, mantém o desempenho do modelo da geração anterior. Além disso, a IBM introduziu uma capacidade chamada “confiança verbalizável”, que permite uma avaliação de risco mais detalhada e considera a incerteza no monitoramento de segurança.
O Granite3.2 foi treinado no kit de ferramentas de código aberto Docling da IBM, que permite que os desenvolvedores transformem documentos nos dados específicos necessários para modelos de IA empresarial personalizados. O treinamento do modelo processou 85 milhões de arquivos PDF e 26 milhões de pares de perguntas e respostas sintéticas para melhorar a capacidade do VLM de lidar com fluxos de trabalho de documentos complexos.
A IBM também anunciou o lançamento da próxima geração de modelos TinyTimeMixers (TTM), um modelo pré-treinado compacto focado na previsão de séries temporais multivariadas, com capacidade de previsão de longo prazo de até dois anos.
Blog oficial: https://www.ibm.com/new/announcements/ibm-granite-3-2-open-source-reasoning-and-vision
Destaques:
📊 O Granite3.2 introduz um modelo de linguagem visual, melhorando o processamento de documentos e a capacidade de extração de dados.
💡 O novo modelo possui a funcionalidade de cadeia de pensamento, que pode esclarecer o processo de raciocínio, melhorando a capacidade de raciocínio.
🔍 O modelo de segurança Granit Guardian foi reduzido em 30%, mas o desempenho não foi afetado, e também foi lançada a funcionalidade de avaliação de risco de confiança verbalizável.