Recientemente, se ha informado que OpenAI está colaborando con Broadcom para desarrollar un chip de inferencia personalizado. Según Reuters, las conversaciones entre ambas compañías son altamente confidenciales, y se especula que la empresa taiwanesa de fabricación de semiconductores TSMC podría ser el fabricante de este proyecto. Esta noticia ha generado diversas especulaciones sobre el futuro de OpenAI.
Nota de la fuente de la imagen: Imagen generada por IA, servicio de licencia de imágenes Midjourney
Entonces, ¿por qué OpenAI necesita su propio chip de inferencia? En primer lugar, los costos de computación en la nube de OpenAI son enormes. Aunque cuenta con socios como Microsoft que cubren parte de estos costos, controlar su propio hardware reduciría significativamente los gastos operativos. Muchas empresas han descubierto que construir sus propios centros de datos es mucho más económico que alquilar servicios en la nube.
Además, el desarrollo de un chip especializado para sus propios servicios podría ser un objetivo estratégico de OpenAI. Como es bien sabido, las aplicaciones de IA consumen una gran cantidad de energía. Por lo tanto, al optimizar la sinergia entre hardware y software, los servicios de OpenAI se volverían más eficientes.
OpenAI también está presentando a los inversores la idea de construir grandes centros de datos dedicados a la ejecución de servicios de IA. Si estos centros estuvieran equipados con chips personalizados, los costos de construcción y operación podrían ser menores. Además, la diversificación de la cadena de suministro es una consideración importante. Dada la capacidad de producción limitada de semiconductores a nivel mundial, la dependencia de proveedores externos conlleva riesgos. El desarrollo de chips propios reduciría la dependencia de productos de terceros.
Aunque es difícil imaginar que OpenAI quiera entrar en el complicado negocio de la venta de hardware, ya que esto requeriría una gran inversión y aumentaría su plantilla, en tareas de inferencia que suelen requerir proximidad al usuario, OpenAI podría desplegar dispositivos en el edge computing, al igual que muchas redes de distribución de contenido y Netflix. Esta arquitectura sería una excelente opción.
En cuanto a los chips de inferencia, no son algo nuevo en el mercado. Ejemplos como Inferentia de AWS, las unidades de procesamiento de tensor (TPU) de Google y los chips Maia de Microsoft pueden manejar cargas de trabajo de inferencia y entrenamiento.
Curiosamente, la noticia de la colaboración entre OpenAI y Broadcom ha impulsado ligeramente el precio de las acciones de esta última. El último informe de ganancias trimestrales de Broadcom muestra que se espera vender 12.000 millones de dólares en chips de IA este año fiscal, 1.000 millones más de lo previsto inicialmente, pero la reacción de los inversores ha sido algo decepcionante. Por lo tanto, colaborar con el nombre más destacado en el campo del software de IA sin duda entusiasmaría a Wall Street.
Puntos clave:
🌟 OpenAI y Broadcom están negociando el desarrollo de un chip de inferencia personalizado para reducir los costos de computación en la nube.
💡 Un chip propio optimizaría la sinergia entre hardware y software, mejorando la eficiencia de los servicios de IA.
📈 Broadcom espera vender 12.000 millones de dólares en chips de IA este año fiscal, y la noticia de la colaboración ha impulsado el precio de sus acciones.