La semaine dernière a été particulièrement animée dans le secteur de l'IA, Google et Meta ayant tous deux lancé de nouvelles versions de leurs modèles d'IA, suscitant un vif intérêt. Tout d'abord, Google a annoncé mardi une nouvelle mise à jour de sa série Gemini, présentant deux nouveaux modèles prêts pour la production : Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002.

image.png

Cette mise à jour améliore considérablement la qualité globale des modèles, notamment en mathématiques, en traitement de longs contextes et en tâches visuelles. Google affirme que les performances ont augmenté de 7 % sur le benchmark MMLU-Pro, et même de 20 % pour les tâches mathématiques. Bien que la signification des benchmarks soit limitée, ces chiffres sont encourageants pour les passionnés d'IA.

Au-delà de l'amélioration des performances, Google a considérablement réduit le coût d'utilisation de Gemini 1.5 Pro, avec une baisse de 64 % pour les jetons d'entrée et de 52 % pour les jetons de sortie. Cette initiative rend l'utilisation de Gemini plus rentable pour les développeurs.

De plus, la vitesse de traitement des requêtes de Gemini 1.5 Flash et Pro a été améliorée : le premier peut gérer 2000 requêtes par minute, tandis que le second en traite 1000. Ces améliorations faciliteront certainement la création d'applications pour les développeurs.

image.png

Mercredi, Meta n'est pas resté inactif en lançant Llama 3.2, une mise à jour majeure de son modèle d'IA open source. Cette mise à jour inclut des grands modèles de langage avec des capacités visuelles, avec des tailles de paramètres allant de 1,1 milliard à 9 milliards, ainsi que des modèles textuels légers de 100 millions et 300 millions de paramètres conçus pour les appareils mobiles.

Meta affirme que ces modèles visuels sont comparables aux modèles propriétaires leaders du marché en termes de reconnaissance et de compréhension d'images. De plus, des chercheurs en IA ont testé les nouveaux modèles et ont constaté que ces petits modèles excellaient dans de nombreuses tâches textuelles.

image.png

Enfin, jeudi, Google DeepMind a officiellement annoncé un projet majeur : AlphaChip. Basé sur des recherches de 2020, ce projet vise à concevoir la disposition des puces grâce à l'apprentissage par renforcement. Google indique qu'AlphaChip a permis d'obtenir une « disposition de puce surperformante » dans ses trois dernières générations d'unités de traitement tensoriel (TPU), réduisant le temps de génération de dispositions de puces de haute qualité de plusieurs semaines, voire mois, à quelques heures.

Il est également important de noter que Google a partagé le modèle de pré-entraînement d'AlphaChip sur GitHub, permettant à d'autres fabricants de puces d'utiliser cette technologie. Des entreprises comme MediaTek ont déjà commencé à l'adopter.

Points clés :

📈 **Google lance une nouvelle version du modèle Gemini, améliorant les performances globales et réduisant considérablement les prix.**

🤖 **Meta lance Llama 3.2, de petits modèles de langage avec des capacités visuelles, affichant d'excellentes performances.**

💡 **AlphaChip de Google accélère la conception de puces, améliorant considérablement l'efficacité de la conception et partageant la technologie.**