Récemment, des informations ont circulé selon lesquelles OpenAI collabore avec Broadcom pour développer une puce d'inférence sur mesure. Selon Reuters, les discussions entre les deux entreprises sont très confidentielles, et TSMC (Taiwan Semiconductor Manufacturing Company) pourrait être le fabricant de cette puce. Cette nouvelle a suscité de nombreuses spéculations sur l'avenir d'OpenAI.
Source : Image générée par IA, fournie par Midjourney
Pourquoi OpenAI aurait-elle besoin de sa propre puce d'inférence ? Premièrement, les coûts de cloud computing d'OpenAI sont extrêmement élevés. Bien que des partenaires comme Microsoft contribuent à une partie des coûts, le contrôle du matériel permettrait une réduction significative des coûts d'exploitation. De nombreuses entreprises ont constaté qu'il était beaucoup plus économique de construire leurs propres centres de données que de louer des services cloud.
De plus, le développement d'une puce spécialisée adaptée à ses propres services pourrait être un objectif stratégique pour OpenAI. Il est bien connu que les applications d'IA consomment énormément d'énergie. En optimisant la synergie entre le matériel et les logiciels, les services d'OpenAI deviendraient plus efficaces.
OpenAI présente également aux investisseurs l'idée de construire de grands centres de données spécialement conçus pour exécuter des services d'IA. Si ceux-ci sont équipés de puces sur mesure, les coûts de construction et d'exploitation pourraient être réduits. De plus, la diversification de la chaîne d'approvisionnement est un facteur important. La capacité de production mondiale de semi-conducteurs étant limitée, la dépendance à des fournisseurs externes présente des risques. Le développement de ses propres puces permettrait de réduire cette dépendance.
Bien qu'il soit difficile d'imaginer OpenAI s'aventurant dans le secteur complexe de la vente de matériel, ce qui nécessiterait des investissements importants et une augmentation des effectifs, le déploiement d'équipements en périphérie du réseau, comme le font de nombreux réseaux de diffusion de contenu et Netflix, pourrait être une excellente solution, surtout lorsque les tâches d'inférence nécessitent une proximité avec les utilisateurs.
En ce qui concerne les puces d'inférence, le marché n'est pas un inconnu. Des puces comme Inferentia d'AWS, les TPU (Tensor Processing Units) de Google et les puces Maia de Microsoft peuvent gérer les charges de travail d'inférence et d'entraînement.
Il est intéressant de noter que l'annonce de la collaboration entre OpenAI et Broadcom a légèrement fait grimper le cours de l'action de cette dernière. Le dernier rapport de résultats trimestriels de Broadcom prévoit la vente de 12 milliards de dollars de puces IA pour l'exercice en cours, soit 1 milliard de dollars de plus que prévu, mais la réaction des investisseurs a été quelque peu décevante. Par conséquent, une collaboration avec le nom le plus en vogue du secteur des logiciels d'IA devrait enthousiasmer Wall Street.
Points clés :
🌟 OpenAI et Broadcom négocient le développement d'une puce d'inférence sur mesure pour réduire les coûts de cloud computing.
💡 Une puce propriétaire permet d'optimiser la synergie entre le matériel et les logiciels, améliorant ainsi l'efficacité des services d'IA.
📈 Broadcom prévoit de vendre 12 milliards de dollars de puces IA au cours de l'exercice en cours, l'annonce de la collaboration ayant stimulé le cours de son action.