Os desenvolvedores de modelos de linguagem chinesa DeepSeek divulgaram esta semana alguns dados interessantes sobre a lucratividade estimada de seus modelos de linguagem V3 e R1 em um período de 24 horas. Segundo os autores dos cálculos, esses modelos permitem que você ganhe seis vezes e meia mais do que gasta alugando poder de computação.

Fonte da imagem: Unsplash, Solen Feyissa

De fato, com base em informações publicadas por representantes da DeepSeek em suas páginas do GitHub, a empresa gastou US$ 87.072 no aluguel de aceleradores de computação em um dia selecionado aleatoriamente, enquanto a potencial monetização de seus modelos V3 e R1 poderia ter rendido US$ 562.027 no mesmo período. Comparando esses valores, os autores dos cálculos obtiveram uma lucratividade condicional de 545%.

No entanto, é importante entender que os cálculos que usam esse método implicam uma série de suposições. Primeiramente, a renda potencial foi calculada sem descontos, e a política de preços para o modelo R1 mais caro foi tomada como base. Em segundo lugar, nem todos os serviços DeepSeek disponíveis publicamente são monetizados e pagos pelos usuários. Se o acesso a eles fosse cobrado a um preço comercial, o número de usuários poderia diminuir, o que reduziria a receita recebida.

Por fim, os cálculos neste exemplo não levam em consideração os custos da DeepSeek com eletricidade, armazenamento de dados ou pesquisa e desenvolvimento em si. De qualquer forma, essa tentativa de demonstrar suas perspectivas e viabilidade a potenciais investidores deve inspirar representantes de outras startups a publicar cálculos semelhantes. Até agora, o campo da inteligência artificial exige grandes investimentos dos investidores, e o retorno financeiro é muito efêmero e distante no tempo.

A DeepSeek explica que a empresa alcançou a alta eficiência de seus serviços por meio de uma série de otimizações. Primeiro, o tráfego é distribuído da forma mais uniforme possível entre vários data centers. Em segundo lugar, o tempo de processamento da solicitação do usuário é regulado de forma flexível. Em terceiro lugar, os dados processados ​​são classificados em lotes para carregar a infraestrutura de forma otimizada.

avalanche

Postagens recentes

Um laser de fônons de chip único foi criado nos EUA para representar um avanço nas futuras comunicações sem fio.

Uma equipe de pesquisadores dos EUA desenvolveu um novo tipo de laser que gera ondas…

23 minutos atrás

A OpenAI investiu na Merge Labs, startup de implantes cerebrais de Sam Altman.

A OpenAI investiu na startup do CEO Sam Altman, a Merge Labs, que está desenvolvendo…

1 hora atrás

Um conflito está se formando entre Mark Zuckerberg e seu gerente contratado, Alexander Wang, que ameaça destruir todo o negócio de IA da Meta.

As gigantes americanas da tecnologia não hesitam em investir quantias consideráveis ​​em startups de IA…

1 hora atrás

A Valve revelou a programação completa dos festivais e promoções do Steam até o final de 2026.

A Valve não demorou muito e anunciou em janeiro quais eventos e promoções oficiais aconteceriam…

1 hora atrás

A ASRock apresentou sua série Rock de placas-mãe baseadas nos chipsets AMD B850 e Intel B860.

A ASRock apresentou sua nova série de placas-mãe Rock. A fabricante anunciou diversos modelos baseados…

2 horas atrás