No recente Google Developer Day em Tóquio, o Google lançou oficialmente um novo modelo de IA Gemma em japonês. O desempenho deste modelo é comparável ao do GPT-3.5, mas seu tamanho é extremamente pequeno, com apenas 2 bilhões de parâmetros, tornando-o adequado para execução em dispositivos móveis.

Gemma

Este modelo Gemma lançado apresenta um desempenho excepcional no processamento de japonês, mantendo simultaneamente suas capacidades em inglês. Isso é particularmente importante para modelos menores, pois eles podem sofrer de "esquecimento catastrófico" ao ajustar novos idiomas, onde o conhecimento recém-adquirido substitui informações previamente aprendidas. No entanto, o Gemma superou esse desafio, demonstrando uma capacidade robusta de processamento de linguagem.

Ainda mais notável é que o Google lançou imediatamente os pesos do modelo, materiais de treinamento e exemplos por meio de plataformas como Kaggle e Hugging Face, ajudando os desenvolvedores a começar mais rapidamente. Isso significa que os desenvolvedores podem facilmente usar este modelo para computação local, abrindo ainda mais possibilidades, especialmente em aplicativos de computação de borda.

Para incentivar mais desenvolvedores internacionais, o Google também lançou uma competição chamada "Desbloqueando a Comunicação Global com Gemma", com um prêmio de US$ 150.000. Este programa visa ajudar os desenvolvedores a adaptar o modelo Gemma para idiomas locais. Atualmente, projetos em árabe, vietnamita e zulu estão em andamento. Na Índia, os desenvolvedores estão trabalhando no projeto "Navarasa", planejando otimizar o modelo para suportar 12 idiomas indianos, enquanto outra equipe está pesquisando o suporte a dialetos coreanos por meio de ajuste fino.

O lançamento da série de modelos Gemma2 visa atingir um desempenho mais alto com menos parâmetros. Em comparação com modelos semelhantes de outras empresas, como o Meta, o Gemma2 também apresenta um desempenho excelente, e em alguns casos, o Gemma2 com 200 milhões de parâmetros consegue superar alguns modelos com 70 bilhões de parâmetros, como o LLaMA-2.

Desenvolvedores e pesquisadores podem acessar o modelo Gemma-2-2B e outros modelos Gemma por meio do Hugging Face, do Google AI Studio e do plano gratuito do Google Colab, além de poder encontrá-los no Google Vertex AI Model Garden.

Link do site oficial:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it

Hugging Face:https://huggingface.co/google

Google Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de

Destaques:

🌟 O Google lança um novo modelo de IA Gemma em japonês, com desempenho comparável ao GPT-3.5, apenas 200 milhões de parâmetros, adequado para execução em dispositivos móveis.

🌍 O Google lança a competição "Desbloqueando a Comunicação Global com Gemma", com um prêmio de US$ 150.000, incentivando o desenvolvimento de versões em idiomas locais.

📈 A série de modelos Gemma2 atinge alto desempenho com poucos parâmetros, superando até mesmo modelos maiores, melhorando o potencial de aplicação para desenvolvedores.