Recentemente, surgiu a notícia de que a OpenAI está em negociações com a Broadcom para desenvolver um chip de inferência personalizado. De acordo com a Reuters, as discussões entre as duas empresas são altamente confidenciais, e a Taiwan Semiconductor Manufacturing Company (TSMC) pode atuar como fabricante do projeto. Essa notícia gerou ampla especulação sobre o futuro da OpenAI.
Nota da imagem: Imagem gerada por IA, provedor de licenciamento de imagens Midjourney
Então, por que a OpenAI precisa de seu próprio chip de inferência? Primeiro, os custos de computação em nuvem da OpenAI são enormes. Embora tenha parceiros como a Microsoft ajudando com parte das despesas, controlar o hardware diretamente reduziria significativamente os custos operacionais. Muitas empresas descobriram que construir seus próprios data centers é muito mais econômico do que alugar serviços em nuvem.
Além disso, o desenvolvimento de um chip especializado para seus próprios serviços pode ser um objetivo estratégico da OpenAI. Como sabemos, os aplicativos de IA consomem muita energia. Portanto, otimizando a sinergia entre hardware e software, os serviços da OpenAI se tornarão mais eficientes.
A OpenAI também está apresentando aos investidores a ideia de construir grandes data centers dedicados à execução de serviços de IA. Se equipados com chips personalizados, esses data centers podem ter custos de construção e operação mais baixos. Além disso, a consideração de diversificar a cadeia de suprimentos também é crucial. Devido à capacidade limitada de produção de semicondutores globalmente, a dependência de fornecedores externos apresenta riscos. Desenvolver seus próprios chips reduz a dependência de produtos de terceiros.
Embora não possamos imaginar a OpenAI entrando no complicado setor de vendas de hardware, o que exigirá muitos investimentos reais e aumentará o número de funcionários, em cenários onde tarefas de inferência precisam estar o mais próximo possível do usuário, a OpenAI pode implantar equipamentos na borda da rede, como muitas redes de distribuição de conteúdo e a Netflix fazem. Essa arquitetura é uma excelente ideia.
Falando em chips de inferência, o mercado não é estranho a eles. Chips como o Inferentia da AWS, as Unidades de Processamento Tensorial (TPUs) do Google e o chip Maia da Microsoft podem lidar com cargas de trabalho de inferência e treinamento.
Curiosamente, a notícia da parceria entre a OpenAI e a Broadcom levou a um pequeno aumento no preço das ações desta última. O último relatório de lucros da Broadcom projeta vendas de US$ 12 bilhões em chips de IA neste ano fiscal, US$ 1 bilhão a mais do que o esperado anteriormente, mas a reação dos investidores foi um pouco decepcionante. Portanto, uma parceria com o nome mais quente do setor de software de IA certamente entusiasmaria Wall Street.
Destaques:
🌟 A OpenAI e a Broadcom estão negociando o desenvolvimento de um chip de inferência personalizado para reduzir os custos de computação em nuvem.
💡 Um chip próprio pode otimizar a sinergia entre hardware e software, melhorando a eficiência dos serviços de IA.
📈 A Broadcom projeta vendas de US$ 12 bilhões em chips de IA neste ano fiscal, e a notícia da parceria impulsionou o preço de suas ações.