Os desenvolvedores de modelos de linguagem chinesa DeepSeek divulgaram esta semana alguns dados interessantes sobre a lucratividade estimada de seus modelos de linguagem V3 e R1 em um período de 24 horas. Segundo os autores dos cálculos, esses modelos permitem que você ganhe seis vezes e meia mais do que gasta alugando poder de computação.

Fonte da imagem: Unsplash, Solen Feyissa

De fato, com base em informações publicadas por representantes da DeepSeek em suas páginas do GitHub, a empresa gastou US$ 87.072 no aluguel de aceleradores de computação em um dia selecionado aleatoriamente, enquanto a potencial monetização de seus modelos V3 e R1 poderia ter rendido US$ 562.027 no mesmo período. Comparando esses valores, os autores dos cálculos obtiveram uma lucratividade condicional de 545%.

No entanto, é importante entender que os cálculos que usam esse método implicam uma série de suposições. Primeiramente, a renda potencial foi calculada sem descontos, e a política de preços para o modelo R1 mais caro foi tomada como base. Em segundo lugar, nem todos os serviços DeepSeek disponíveis publicamente são monetizados e pagos pelos usuários. Se o acesso a eles fosse cobrado a um preço comercial, o número de usuários poderia diminuir, o que reduziria a receita recebida.

Por fim, os cálculos neste exemplo não levam em consideração os custos da DeepSeek com eletricidade, armazenamento de dados ou pesquisa e desenvolvimento em si. De qualquer forma, essa tentativa de demonstrar suas perspectivas e viabilidade a potenciais investidores deve inspirar representantes de outras startups a publicar cálculos semelhantes. Até agora, o campo da inteligência artificial exige grandes investimentos dos investidores, e o retorno financeiro é muito efêmero e distante no tempo.

A DeepSeek explica que a empresa alcançou a alta eficiência de seus serviços por meio de uma série de otimizações. Primeiro, o tráfego é distribuído da forma mais uniforme possível entre vários data centers. Em segundo lugar, o tempo de processamento da solicitação do usuário é regulado de forma flexível. Em terceiro lugar, os dados processados ​​são classificados em lotes para carregar a infraestrutura de forma otimizada.

avalanche

Postagens recentes

As ações da Nvidia caíram 7% em uma semana, apesar de um relatório trimestral sólido.

Esta semana, a Nvidia não só divulgou uma receita trimestral recorde, superando as expectativas do…

1 hora atrás

As encomendas de produção de chips de 2nm da TSMC estão distribuídas pelos próximos dois anos.

A TSMC, de Taiwan, ultrapassou seus concorrentes no desenvolvimento de processos litográficos avançados, embora a…

2 horas atrás

A Huawei apresentará sistemas de supercomputação no MWC 2026 em Barcelona.

As fronteiras entre os gêneros tecnológicos estão se tornando cada vez mais tênues, portanto, a…

2 horas atrás

Análise de Yakuza Kiwami 3 e Dark Ties – O Que Você Fez?! / Jogos

Jogado no Xbox Series S Em 2009 (ou 2010, se estivermos falando do lançamento fora…

9 horas atrás

A Hyundai investirá mais de US$ 6 bilhões em data centers com inteligência artificial, robótica, hidrogênio e energia solar.

O Grupo Hyundai Motor e o governo sul-coreano assinaram um acordo para investir aproximadamente ₩9…

9 horas atrás