Recentemente, o professor da Wharton School, Ethan Mollick, revelou informações sobre a Anthropic. Ele disse que o departamento de relações públicas da Anthropic esclareceu que o custo de treinamento de seu modelo de IA principal, Claude 3.7 Sonnet, foi de "dezenas de milhões de dólares", e que a capacidade computacional usada foi inferior a 10^26 FLOP. Ele também mencionou que a Anthropic informou a ele que o Sonnet 3.7 não seria considerado um modelo de 10^26 FLOP, mas que os modelos futuros seriam muito maiores. O TechCrunch entrou em contato com a Anthropic para confirmar, mas não recebeu resposta até o fechamento desta edição.
Anteriormente, o CEO da Anthropic, Dario Amodei, revelou que o custo de treinamento do Claude 3.5 (o antecessor do Sonnet), lançado no outono de 2024, também foi de dezenas de milhões de dólares. Em comparação com os modelos top de 2023, esse custo é bastante favorável. Por exemplo, o desenvolvimento do GPT-4 pela OpenAI custou mais de US$ 100 milhões, e um estudo da Universidade de Stanford estima que o treinamento do modelo Gemini Ultra do Google custou quase US$ 200 milhões.
No entanto, Amodei prevê que os modelos de IA futuros custarão bilhões de dólares, e isso ainda não inclui os testes de segurança e a pesquisa básica. Ao mesmo tempo, à medida que a indústria de IA adota modelos de "raciocínio" capazes de resolver problemas por longos períodos, o custo computacional de execução dos modelos pode continuar a aumentar.