O treinamento do mais recente modelo de IA da Sonnet, o Claude 3.7, custou ao seu desenvolvedor, a Anthropic, apenas “dezenas de milhões de dólares” e exigiu menos de 1014 Tflops de poder computacional.

Fonte da imagem: anthropic.com
Foi o que relatou Ethan Mollick, professor da Wharton School of Business (EUA), que citou uma explicação dada pelo departamento de relações públicas da Anthropic. “A Anthropic entrou em contato comigo e disse que o Sonnet 3.7 não deveria ser considerado um modelo de 1026 FLOPS e que custou apenas algumas dezenas de milhões de dólares”, disse o cientista, acrescentando que “os modelos futuros serão muito maiores”.
Se aceitarmos que o treinamento do Anthropic Claude 3.7 Sonnet realmente custou à empresa “apenas dezenas de milhões de dólares”, sem as despesas associadas, então o custo de desenvolvimento de sistemas realmente começa a cair. Seu antecessor, o Claude 3.5 Sonnet de tamanho médio, lançado no ano passado, custou um valor semelhante para treinar, disse o CEO da Anthropic, Dario Amodei. Em comparação, a OpenAI gastou US$ 100 milhões para desenvolver o GPT-4, e o Google gastou cerca de US$ 200 milhões para treinar o Gemini Ultra.
O Sr. Amodei, no entanto, não espera uma redução de longo prazo no custo do treinamento de IA – eles já custarão bilhões de dólares, e isso sem contar os custos de testes de segurança e pesquisa fundamental. Agora, modelos de “raciocínio” estão entrando em circulação, os quais demoram mais para responder às consultas, o que significa que a IA exigirá cada vez mais recursos de computação.
