En el reciente Día de los Desarrolladores de Gemma celebrado en Tokio, Google presentó oficialmente el nuevo modelo de IA Gemma en japonés. Este modelo ofrece un rendimiento comparable al de GPT-3.5, pero con una cantidad de parámetros sorprendentemente pequeña de solo 2 mil millones, lo que lo hace ideal para su ejecución en dispositivos móviles.

Gemma

El modelo Gemma lanzado destaca por su excelente rendimiento en el procesamiento del idioma japonés, sin sacrificar sus capacidades en inglés. Esto es particularmente importante para los modelos pequeños, ya que al ajustar nuevos idiomas pueden sufrir "olvido catastrófico", donde el nuevo conocimiento sobreescribe la información previamente aprendida. Gemma ha superado con éxito este desafío, demostrando una potente capacidad de procesamiento del lenguaje.

Más notable aún, Google ha publicado inmediatamente los pesos del modelo, los materiales de entrenamiento y ejemplos a través de plataformas como Kaggle y Hugging Face, facilitando el acceso a los desarrolladores. Esto significa que los desarrolladores pueden utilizar fácilmente este modelo para cálculos locales, abriendo un amplio abanico de posibilidades, especialmente en aplicaciones de computación perimetral (edge computing).

Para incentivar la participación de desarrolladores internacionales, Google ha lanzado una competición llamada "Desbloquea la comunicación global con Gemma", con un premio de 150.000 dólares. Este programa busca ayudar a los desarrolladores a adaptar el modelo Gemma a sus idiomas locales. Actualmente, ya hay proyectos en marcha para árabe, vietnamita y zulú. En la India, los desarrolladores están trabajando en el proyecto "Navarasa", que pretende optimizar el modelo para soportar 12 idiomas indios, mientras que otro equipo está investigando la adaptación a dialectos coreanos mediante el ajuste fino.

El lanzamiento de los modelos de la serie Gemma2 tiene como objetivo lograr un mayor rendimiento con menos parámetros. En comparación con modelos similares de otras empresas como Meta, Gemma2 ofrece un rendimiento excelente, incluso superando en algunos casos a modelos con 70 mil millones de parámetros, como LLaMA-2, con su versión de 200 millones de parámetros.

Los desarrolladores e investigadores pueden acceder al modelo Gemma-2-2B y otros modelos Gemma a través de Hugging Face, Google AI Studio y el plan gratuito de Google Colab, además de encontrarlo en el Model Garden de Vertex AI.

Enlace al sitio web: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it

Hugging Face: https://huggingface.co/google

Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de

Puntos clave:

🌟 Google lanza un nuevo modelo de IA Gemma en japonés, con un rendimiento comparable a GPT-3.5, solo 200 millones de parámetros y adecuado para dispositivos móviles.

🌍 Google lanza la competición "Desbloquea la comunicación global con Gemma", con un premio de 150.000 dólares, para fomentar el desarrollo de versiones en idiomas locales.

📈 Los modelos de la serie Gemma2 ofrecen alto rendimiento con pocos parámetros, incluso superando a modelos más grandes, lo que aumenta el potencial de las aplicaciones para los desarrolladores.