Os desenvolvedores de modelos de linguagem chinesa DeepSeek divulgaram esta semana alguns dados interessantes sobre a lucratividade estimada de seus modelos de linguagem V3 e R1 em um período de 24 horas. Segundo os autores dos cálculos, esses modelos permitem que você ganhe seis vezes e meia mais do que gasta alugando poder de computação.

Fonte da imagem: Unsplash, Solen Feyissa

De fato, com base em informações publicadas por representantes da DeepSeek em suas páginas do GitHub, a empresa gastou US$ 87.072 no aluguel de aceleradores de computação em um dia selecionado aleatoriamente, enquanto a potencial monetização de seus modelos V3 e R1 poderia ter rendido US$ 562.027 no mesmo período. Comparando esses valores, os autores dos cálculos obtiveram uma lucratividade condicional de 545%.

No entanto, é importante entender que os cálculos que usam esse método implicam uma série de suposições. Primeiramente, a renda potencial foi calculada sem descontos, e a política de preços para o modelo R1 mais caro foi tomada como base. Em segundo lugar, nem todos os serviços DeepSeek disponíveis publicamente são monetizados e pagos pelos usuários. Se o acesso a eles fosse cobrado a um preço comercial, o número de usuários poderia diminuir, o que reduziria a receita recebida.

Por fim, os cálculos neste exemplo não levam em consideração os custos da DeepSeek com eletricidade, armazenamento de dados ou pesquisa e desenvolvimento em si. De qualquer forma, essa tentativa de demonstrar suas perspectivas e viabilidade a potenciais investidores deve inspirar representantes de outras startups a publicar cálculos semelhantes. Até agora, o campo da inteligência artificial exige grandes investimentos dos investidores, e o retorno financeiro é muito efêmero e distante no tempo.

A DeepSeek explica que a empresa alcançou a alta eficiência de seus serviços por meio de uma série de otimizações. Primeiro, o tráfego é distribuído da forma mais uniforme possível entre vários data centers. Em segundo lugar, o tempo de processamento da solicitação do usuário é regulado de forma flexível. Em terceiro lugar, os dados processados ​​são classificados em lotes para carregar a infraestrutura de forma otimizada.

avalanche

Postagens recentes

A Meta não conseguiu criar seu próprio chip de IA porque é “muito complicado” e sofre com “problemas técnicos”.

A Meta✴ encontrou dificuldades no desenvolvimento de seus próprios aceleradores para sistemas de inteligência artificial…

15 minutos atrás

A Dell apresentou o servidor externo PowerEdge XR9700 com sistema de refrigeração de circuito fechado.

A Dell anunciou o servidor PowerEdge XR9700, projetado para infraestruturas Cloud RAN e aplicações de…

1 hora atrás

A OpenAI negociou um acordo com o Pentágono para usar seus modelos de IA em vez dos da Anthropic.

O drama que se desenrolava em torno da discordância da administração da Anthropic com o…

3 horas atrás

A Xiaomi recuperou a liderança no mercado global de dispositivos vestíveis.

A Xiaomi conquistou 18% do mercado global de wearables até o final de 2025, reassumindo…

3 horas atrás

A Paramount Skydance concordou em comprar a Warner Bros. Discovery por US$ 110 bilhões.

Recentemente, a Paramount Skydance e a Netflix travaram uma batalha pelos ativos da gigante da…

4 horas atrás

Centenas de funcionários do Google e da OpenAI apoiaram a Anthropic em seu impasse com o Pentágono.

Esta semana foi marcada por um escândalo envolvendo a Anthropic e seu cliente governamental, o…

4 horas atrás