O conglomerado japonês SoftBank investirá 150 mil milhões de ienes (960 milhões de dólares) até 2025 para expandir a capacidade computacional, o que permitirá o desenvolvimento de modelos de IA de alto desempenho, escreve a CNBC. De acordo com o Nikkei Asia, o SoftBank gastou 20 mil milhões de ienes (128 milhões de dólares) no ano passado para fortalecer a sua infraestrutura informática.
Graças a um investimento tão grande, o SoftBank terá o poder de computação de maior desempenho do país, observou o Nikkei Asia. Segundo fontes de recursos, aceleradores Nvidia serão utilizados para seu funcionamento.
No ano fiscal de 2024, o SoftBank planeja concluir seu primeiro grande modelo de linguagem LLM com 390 bilhões de parâmetros. Então, de acordo com o Nikkei Asia, a empresa começará a desenvolver o LLM em 2025 com 1 trilhão de parâmetros e suporte ao idioma japonês.
Tal como o Nikkei Asia observou anteriormente, há uma escassez de empresas privadas no Japão com os supercomputadores de alto desempenho necessários para criar LLMs, apesar do crescente interesse na IA. O investimento posicionará o SoftBank como um forte player no espaço generativo de IA, num momento em que as empresas internacionais estão tentando entrar no mercado japonês. Na semana passada, a OpenAI abriu seu primeiro escritório em Tóquio. Por sua vez, a Microsoft anunciou planos de investir US$ 2,9 bilhões ao longo de dois anos para expandir a computação em nuvem e a infraestrutura de IA no Japão.