Na recente CES, o CEO da Nvidia, Jensen Huang, afirmou que a velocidade de melhoria do desempenho de seus chips de IA superou os padrões históricos da Lei de Moore.

A Lei de Moore, proposta em 1965 pelo cofundador da Intel, Gordon Moore, previa que o número de transistores em um chip de computador dobraria a cada ano, resultando em um aumento correspondente no desempenho do chip. No entanto, nos últimos anos, o progresso da Lei de Moore desacelerou significativamente.

Placa de vídeo, Nvidia, RTX40

Observação da fonte: Imagem gerada por IA, provedor de licenciamento de imagens Midjourney

Huang apontou que o mais recente superchip de data center da Nvidia é mais de 30 vezes mais rápido que a geração anterior em cargas de trabalho de inferência de IA. Ele disse: "Podemos construir simultaneamente arquitetura, chips, sistemas, bibliotecas e algoritmos. Se conseguirmos fazer isso, podemos superar a Lei de Moore, pois podemos inovar em toda a pilha tecnológica."

Essa declaração é particularmente significativa em meio a muitas dúvidas sobre se o progresso da IA ​​está estagnado. Atualmente, laboratórios líderes de IA como Google, OpenAI e Anthropic usam chips de IA da Nvidia para treinar e executar modelos de IA, portanto, os avanços nesses chips afetarão diretamente a capacidade dos modelos de IA.

Huang também mencionou que existem três leis de escala de IA ativas: pré-treinamento, pós-treinamento e computação em tempo de teste. Ele enfatizou que a Lei de Moore foi tão importante na história da computação porque impulsionou a redução dos custos de computação, e o aumento do desempenho na inferência também levará à redução dos custos de inferência.

Embora alguns estejam preocupados se os chips caros da Nvidia podem manter sua liderança na inferência, Huang disse que o mais recente chip GB200NVL72 é 30 a 40 vezes mais rápido que o chip H100 em cargas de trabalho de inferência, tornando os modelos de inferência de IA mais acessíveis.

Huang enfatizou que melhorar a capacidade de computação é uma maneira direta e eficaz de resolver os problemas de desempenho e custo da computação em tempo de inferência. Ele prevê que, com o avanço contínuo da tecnologia de computação, o custo dos modelos de IA continuará a cair, embora alguns modelos de empresas como OpenAI tenham atualmente altos custos operacionais.

Huang disse que os chips de IA atuais são 1.000 vezes melhores do que há dez anos, uma taxa de progresso que supera a Lei de Moore, e ele acredita que essa tendência não vai parar tão cedo.

Destaques:

🌟 O CEO da Nvidia, Jensen Huang, disse que a melhoria do desempenho dos chips de IA da empresa superou a Lei de Moore.

⚡ O mais recente chip GB200NVL72 é de 30 a 40 vezes mais rápido que a geração anterior em cargas de trabalho de inferência de IA.

📉 Huang prevê que, com o aumento da capacidade de computação, o custo de uso dos modelos de IA diminuirá gradualmente.