No entanto, nem todos os especialistas estão dispostos a ver o espaço próximo como um novo local para centros de dados, especialmente aqueles focados na solução de problemas de inteligência artificial — os mais intensivos em energia e recursos dentre todos os que a humanidade atualmente resolve em larga escala usando computadores. Em fevereiro, Sam Altman, CEO da OpenAI, ridicularizou Elon Musk, que ocupa (entre outros cargos de alto escalão) a posição de CEO da empresa espacial SpaceX. Altman, apesar de ser o mais otimista em relação ao progresso da alta tecnologia no campo da IA, afirmou que, pelo menos na década atual (ou seja, até o início dos anos 2030), definitivamente não haverá sentido prático em lançar centros de dados de IA em órbita. Pouco tempo antes, a SpaceX havia revelado planos ambiciosos para implantar exatamente esses centros de dados no espaço, chegando a um milhão deles, e já havia começado a contratar engenheiros com as especialidades relevantes e a desenvolver outras medidas práticas para implementar seus planos. Outras empresas que desenvolvem modelos generativos e equipamentos para treinamento/inferência também apoiam a posição ambiciosa de Musk, em vez da cautelosa de Altman. Entre elas, o Google com seu projeto Suncatcher; A Nvidia, que fez parceria com a Starcloud para lançar um satélite de 60 quilos em órbita, cujo interior inclui uma GPU H100 em funcionamento; e uma série de outros participantes, incluindo empresas da União Europeia e da China.
Então, quem está certo: os entusiastas que pretendem começar a implantar data centers de IA no espaço próximo à Terra antes de 2030, ou os céticos como Altman?Preferindo, por ora, permanecer mais perto da Terra pecaminosa?
Um projeto de data center orbital: para cada satélite, uma matriz de células solares de 1.024 metros quadrados [1] gera 240 kW de energia, protegendo simultaneamente o conjunto de servidores da incidência direta do sol. Os processadores desse conjunto são equipados com refrigeração líquida, com o fluido refrigerante circulante sendo descarregado em extensos painéis tubulares de dissipação de calor [2], que dissipam o calor diretamente no espaço — exclusivamente por meio de transferência radiativa. Atingir 1 GW de potência computacional total exigirá a conexão de 4.300 satélites desse tipo, com uma massa combinada de 30 milhões de kg, lançados em órbita baixa da Terra por meio de canais de comunicação de alta velocidade, preferencialmente a laser (fonte: IEEE Spectrum).
⇡#SpaceScale
O progresso tecnológico é amplamente impulsionado por considerações de lucro: uma ferramenta que está longe da perfeição, mas que está disponível agora e tem potencial para desenvolvimento futuro, muitas vezes se mostra indispensável para a solução de problemas de grande escala. Assim, a sede por ouro e especiarias impulsionou as pequenas e frágeis caravelas europeias da Era dos Descobrimentos a contornar a África e atravessar o Atlântico — enquanto o Império Ming chinês, que já possuía monstruosos “navios do tesouro” (com até 122 metros de comprimento, porões divididos em compartimentos isolados por anteparas estanques, quatro conveses e nove mastros) no início do século XV, não tinha pressa em enviar sua frota para conquistar novas terras. Afinal, ao contrário da Europa renascentista, o Império Celestial não sofria com a escassez de nenhum recurso relevante na época, e as considerações econômicas não deveriam ser desconsideradas. As expedições de Colombo e Magalhães custaramRelativamente baratas, exigindo apenas financiamento privado (embora com fundos reais, mas fundos da coroa e da família, não fundos estatais), e rapidamente se pagaram. A “Frota Dourada” (郑和) do Almirante Zheng He consumiu até 30% das receitas orçamentárias anuais do Império Ming, não conseguindo proporcionar qualquer retorno significativo sobre o investimento dentro de um prazo razoável, e acabou sendo descartada. Até mesmo os planos para os “navios do tesouro” foram destruídos por diligentes funcionários imperiais — para que as gerações futuras aprendessem a lição de não mergulhar o país e seu povo em gastos inúteis.
À primeira vista, implantar data centers além dos limites formais da atmosfera também parece um poço sem fundo financeiro: atualmente, o transporte comercial de carga mais acessível para a órbita terrestre baixa (usando o foguete reutilizável Falcon Heavy) custa de US$ 1.500 a US$ 1.600 por quilograma, tornando a implantação de uma rede de data centers espaciais (que pesariam milhões de quilogramas!) em órbita incrivelmente cara. A incansável SpaceX de Elon Musk prometeu aumentar esse valor para US$ 100 por quilograma e, posteriormente, para um valor ainda menor, assim que atingir o nível de projeto para lançamentos regulares com estágios recuperáveis, o que animou bastante os entusiastas da orbitalização da IA. De fato, segundo cálculos do engenheiro aeroespacial Andrew McCalip, na era anterior à implementação dos ambiciosos planos da SpaceX (que continua até hoje), é simplesmente inviável construir data centers no espaço: o custo de 1 GW de capacidade computacional convencional seria de 7 a 10 vezes maior do que o de um data center terrestre típico — mesmo considerando todos os fatores agravantes.a construção do último inconveniente (o custo do terreno, a necessidade de fornecer água, os salários dos funcionários, etc.).
Os componentes que compõem o custo de um data center com capacidade nominal de 1 GW, considerando a Terra (à esquerda) e a órbita baixa da Terra, entregues pelas futuras espaçonaves de produção da SpaceX. Com o preço comercial por quilograma de carga útil atingindo US$ 100, a computação orbital custará apenas cerca de três vezes mais do que na superfície — US$ 51,10/W contra US$ 15,85/W (fonte: Andrew McCalip via IEEE Spectrum).
No entanto, a esperada redução nos custos de lançamento em uma ordem de magnitude, combinada com o uso de processadores de IA especializados e altamente eficientes, reduzirá essa diferença para aproximadamente três vezes. Isso já é viável, pois o espaço é vasto e há amplo espaço em órbita para acomodar um número cada vez maior de nós de data center. Ao contrário, na superfície do planeta, cada novo data center de grande escala, inevitavelmente competindo com uma quantidade objetivamente limitada de recursos (fontes de terra e água disponíveis, a presença de usinas de energia em operação nas proximidades ou a capacidade de construir novas, etc.), se tornará cada vez mais caro ano após ano. Assim, em breve, os data centers orbitais de IA poderão se tornar ainda mais lucrativos do que os terrestres — e então o cético Sam Altman ficará envergonhado.
Formalmente falando, a era da computação de IA no espaço já está em andamento: no final de 2025, a startup Starcloud — usando o mesmo foguete da SpaceX, ainda longe do cobiçado custo de lançamento de US$ 100 por quilograma — lançou o satélite de teste Starcloud-1 com um acelerador Nvidia H100. O servidor orbital realizou o treinamento diretamente em gravidade zero.Modelos NanoGPT e inferência usando o Google Gemma. Um chatbot baseado neste último se dirigiu àqueles que o enviaram além da atmosfera: “Saudações, terráqueos! Ou, como prefiro chamá-los, uma intrigante agregação de azul e verde.” Felizmente, pelo menos ele não os chamou de “sacos de pele”.
Uma mensagem de boas-vindas da primeira IA orbital para as unidades azul-esverdeadas restantes na superfície do planeta (fonte: Starcloud)
Enquanto isso, a intrigante unidade azul-esverdeada que circula na superfície do planeta parece estar deliberadamente bloqueando qualquer caminho para o desenvolvimento de alta tecnologia que não envolva o lançamento de data centers no espaço. O relatório do ano passado da Agência Internacional de Energia afirmou que, até 2030 (esse prazo novamente!), a energia elétrica consumida pelos data centers da Terra mais que dobrará. Dessa perspectiva, os investimentos em data centers orbitais estão se tornando cada vez menos assustadores ano após ano, mesmo levando em consideração o custo ainda elevado de enviar carga para a órbita. Afinal, esse custo pode ser reduzido por meio de engenharia — tanto aprimorando foguetes e aumentando a frequência de lançamentos, quanto desenvolvendo métodos não movidos a jato para superar a gravidade da Terra, como elevadores orbitais (a longo prazo). Mas, embora o custo por quilowatt de energia gerada na superfície do planeta esteja apenas aumentando, a radiação solar gratuita está sempre disponível em órbita — se a capacidade das células solares fosse suficiente.
⇡#Corrida até a linha de chegada
Em meados de 2024, a Phantom Space e a Assured Space Access anunciaram sua intenção de implantar conjuntamente uma infraestrutura de nuvem no espaço. No entanto, a constelação planejada de 66 satélites, chamada Phantom Cloud, não foi projetada para tarefas de IA. Seu objetivo é fornecer armazenamento de dados de backup para espaçonaves parceiras e acelerar a transmissão de dados de satélite (possivelmente também de hipotéticos centros de dados orbitais) para a Terra.Pouco mais tarde, em setembro daquele ano, a Lumen Orbit (posteriormente renomeada, aliás, para a já mencionada Starcloud) detalhou seus planos para a criação de data centers de escala gigawatt em órbita da Terra. A implantação dos primeiros microdata centers de teste está prevista para 2026 e, após a operação regular das Starships da SpaceX (os mesmos ônibus espaciais cujas taxas comerciais devem ser de US$ 100/kg ou menos), eles planejam lançar um grande data center Hypercluster.
Diagrama geral da operação da Phantom Cloud (fonte: Assured Space Access)
A justificativa econômica é óbvia: os modelos generativos exercem uma pressão crescente sobre a rede elétrica do planeta. Não há informações oficiais sobre os recursos gastos no treinamento do GPT-5, mas, segundo estimativas razoáveis, a nuvem Microsoft Azure dedicada ao seu treinamento equivale a um megadatacenter com 100.000 a 180.000 aceleradores H100. O processo de treinamento do modelo em si levou pelo menos três meses, e até seis meses foram gastos em testes de segurança. Especialistas estimam, de forma razoável, que o treinamento de um hipotético GPT-6 em 2027 exigirá dezenas de vezes mais eletricidade — até 45 TWh —, o que seria suficiente para alimentar datacenters de IA com uma capacidade combinada de mais de 5.100 GW por cerca de um ano. Isso é, para dizer o mínimo, demais para a humanidade: no início de 2026, a capacidade global de data centers implantada no planeta será de aproximadamente 122,2 GW (53,7 GW nos EUA, 31,9 GW na China, etc.), e até o final deste ano, não mais do que cinco data centers de escala gigawatt (ou maiores) para inteligência artificial serão comissionados.
O lançamento bem-sucedido do primeiro espaçonave Starcloud permitiu que a startup por trás do projeto arrecadasse US$ 170 milhões (além dos cerca de US$ 200 milhões já captados) em uma rodada de financiamento Série A, atingindo uma capitalização de mercado estimada em US$ 1,1 bilhão. Espera-se que, no final de 2026, a Starcloud 2 seja lançada em órbita com múltiplas GPUs: desta vez, estas incluirão não apenas chips Nvidia Blackwell, mas também, em particular, chips ASIC dentro do módulo de servidor da AWS.Para demonstrar a universalidade do espaçoO centro de dados também deverá abrigar um computador especializado para mineração de criptomoedas. Imediatamente após a conclusão bem-sucedida da missão Starcloud 2, começarão os preparativos para a terceira versão deste dispositivo — pesando três toneladas —, capaz de acomodar equipamentos de TI com um consumo total de energia de 200 kW. Philip Johnston, CEO e fundador da startup, espera que, assim que o custo de um lançamento comercial em cápsulas Starship cair para US$ 500 por quilograma, os custos de seu centro de dados orbital cheguem a US$ 0,05 por 1 kWh de poder computacional. Para efeito de comparação, hoje, nos EUA, os preços da computação nos maiores centros de dados hiperescaláveis permanecem na faixa de US$ 0,04 a US$ 0,15 por 1 kWh, o que já permite falar sobre a rentabilidade da computação espacial (e não apenas relacionada à IA) a médio prazo. Esses cálculos, é claro, baseiam-se em uma premissa importante: que a SpaceX, responsável pelo transporte orbital, alcance suas metas de desempenho previamente anunciadas dentro de um prazo razoável. Infelizmente, a Starship está atualmente sujeita a “desmontagem rápida e não programada”, como Elon Musk prefere chamar as explosões espetaculares de sua espaçonave no lançamento. No entanto, os desenvolvedores do hardware de computação já têm tudo pronto: Jensen Huang apresentou o módulo de computação especializado Vera Rubin Space-1 para data centers espaciais, com uma arquitetura CPU-GPU altamente integrada e um barramento de interconexão de alta velocidade, em meados de março de 2026.
O custo de lançamento de 1 kg de carga útil em órbita baixa da Terra em foguetes da SpaceX com diferentes pesos de lançamento. Nesse ritmo de redução de preços, atingir pelo menos US$ 200/kg não é esperado antes de meados da década de 2030 — e somente se pelo menos 180 lançamentos da Starship forem realizados anualmente: um lançamento a cada dois dias (fonte: Google).
É claro que a SpaceX não pretende participar da corrida por data centers orbitais apenas como um veículo de transporte para as espaçonaves de seus concorrentes: não é coincidência que, em fevereiro, tenha adquirido outra empresa do conglomerado de Musk, a xAI. Em janeiro de 2026, como mencionado anteriormente, a empresa solicitou permissão do órgão regulador dos EUA para construir um data center distribuído, que eventualmente incluirá até um milhão de satélites. Ao mesmo tempo, potenciais concorrentes desse data center orbital provavelmente também serão forçados a usar os serviços da sofisticada Starship, simplesmente porque não existe nenhum veículo comercial de lançamento orbital no planeta comparável à SpaceX em termos de frequência de lançamento. Tomemos como exemplo o projeto Google Suncatcher, já mencionado anteriormente: ele prevê o lançamento de uma constelação de satélites movidos a energia solar em órbita, com links de comunicação óptica. Os núcleos de computação desses centros de dados de IA espacial serão unidades de processamento tensorial (TPUs), que, aliás, já passaram com sucesso por testes de resistência à radiação cósmica na intensidade típica do espaço próximo. E embora a descrição do projeto não mencione diretamente a escolha de um contratado para o transporte de carga para a órbita, todos os cálculosOs estudos de viabilidade econômica baseiam-se nas conquistas e previsões da SpaceX, devido à falta de uma alternativa comercial adequada (um projeto chinês semelhante é diferente; envolve uma empresa espacial local com participação estatal). Mesmo levando em consideração que, segundo o Google, um painel solar em órbita gera eletricidade com uma eficiência oito vezes maior do que um na Terra, o envio de cargas úteis para o espaço continua sendo o maior custo para qualquer centro de dados extraterrestre. Dois protótipos do Suncatcher têm lançamento previsto para 2027, e o Google espera que, até lá, a Starship já tenha iniciado seu projeto de substituição do atual gigante do transporte orbital comercial, o foguete Falcon Heavy.
⇡#RealidadeDura
“Minhas estimativas indicam que, dentro de dois a três anos, a maneira mais barata de implantar nova capacidade computacional para IA será no espaço”, afirmou Elon Musk em fevereiro. Em resposta, Sam Altman considerou a ideia ridícula, apontando corretamente duas de suas principais fragilidades: o alto custo de envio de carga para a órbita e as enormes dificuldades de reparo de componentes defeituosos a centenas de quilômetros acima da superfície da Terra. No entanto, a julgar pelo número de projetos de data centers orbitais de IA, é difícil não ter a sensação de que Altman — apesar de todos os seus méritos, ele não é um profissional da área espacial — está sendo excessivamente pessimista.
Por exemplo, a estatal chinesa China Aerospace Science and Technology Corporation (CASC) pretende construir uma “infraestrutura digital inteligente espacial de classe gigawatt” implantando data centers em órbita até 2030 (isso mesmo!).Centros de dados que recebem dados da Terra e os processam no espaço, utilizando eletricidade gratuita gerada por painéis solares. Além disso, até 2030, um consórcio europeu formado por Thales Alenia Space, Ariane Group, Airbus e HPE, financiado pela UE, planeja demonstrar a viabilidade técnica e os benefícios ambientais da implantação de centros de dados em larga escala no espaço. A startup Axiom Space iniciou sua própria odisseia espacial, enviando um módulo de computação para a Estação Espacial Internacional (ISS), e espera operar, até 2027, três centros de dados orbitais comerciais interligados por links de dados ópticos (Microchip Technology, Phison Electronics e Skyloom participam deste projeto). A Blue Origin, projeto espacial de Jeff Bezos, fundador da Amazon, planeja lançar quase 52.000 data centers compactos em órbita, enquanto o computador orbital Aurora 1000 (estritamente falando, não potente o suficiente para executar modelos de IA) da empresa chinesa Comospace já opera há mais de 1.000 dias a bordo do satélite Jilin-1 — abrindo caminho para o lançamento de seu sucessor mais poderoso, o Aurora 5000, que será equipado com um processador gráfico de alto desempenho. Em resumo, existem muitos projetos para lançar infraestrutura de IA no espaço próximo, e é evidente que estão recebendo grandes investimentos. Então, por que Sam Altman persiste em seu ceticismo?
Modelo computacional do primeiro satélite de teste da Starcloud (fonte: Starcloud)
Já abordamos a primeira de suas principais objeções: o custo mínimo para enviar 1 kg de carga útil para a órbita terrestre baixa gira em torno de US$ 1.500, e sem uma redução de pelo menos três vezes, a revolução orbital da IA não acontecerá. A SpaceX aposta na redução dos custos de entrega aumentando a massa lançada ao espaço de uma só vez — daí a busca da Starship pelo gigantismo. No entanto, a equipe de desenvolvimento enfrenta desafios de engenharia incríveis: a empresa de Musk não conseguiu alcançar a verdadeira reutilização de seu foguete supergigante — e, no entanto, a prontidão de seus estágios para uso repetido, inúmeras vezes, com atraso mínimo, é justamente o que deve garantir a taxa de lançamento planejada de aproximadamente uma vez a cada dois dias. Se esse ritmo não for mantido, os estágios que queimarem ou errarem o alvo durante a fase de retorno terão que ser substituídos regularmente, e o custo de lançamento da carga útil aumentará exponencialmente. Isso traz à tona o dilema antigo de toda a indústria aeroespacial: tornar um foguete (em particular, o Super Heavy Booster) mais resistente significa aumentar sua resistência a possíveis danos, mas também torná-lo mais pesado, o que, por sua vez, leva a um consumo adicional de combustível e, em última análise, aumenta o custo de colocar esse proverbial quilograma em órbita. Alcançar resistência por métodos que não envolvam o espessamento das paredes significa conduzir extensas pesquisas em ciência dos materiais, o que, novamente, aumentará o custo do projeto e atrasará sua implementação. E também háProblemas graves com vazamentos de combustível em oleodutos, falhas na partida durante a decolagem ou falhas durante pousos controlados de alguns dos 33 motores principais do foguete, etc.
Vamos supor, no entanto, que o gênio da engenharia dos funcionários da SpaceX — usando supercomputadores modernos, os mais recentes avanços na ciência dos materiais e uma boa dose de engenhosidade — permitirá que eles alcancem seu objetivo. Talvez não em 2030, mas pelo menos até meados da próxima década, os lançamentos reutilizáveis da Starship se tornarão regulares, seus dois estágios gigantescos aprenderão a retornar à Terra com precisão e exatidão, e o custo de lançamento de um quilograma de carga útil cairá gradualmente para US$ 500 por quilograma, depois para US$ 200 e, finalmente, para US$ 100. Centenas de milhares de data centers espaciais, prontos até lá, ocuparão seus lugares em órbitas baixas… espere; será que esse espaço ainda existirá? Segundo algumas estimativas, feitas em particular por especialistas do Instituto Max Planck de Radioastronomia da Alemanha, apenas cerca de 100.000 satélites com movimento passivo podem ser efetivamente implantados em órbitas baixas, até 2.000 km acima da superfície da Terra. Isso significa implantá-los de uma forma que não exija manobras regulares para evitar colisões: o tipo de manobras evasivas sem problemas que as espaçonaves da constelação Starlink realizam regularmente hoje certamente não é viável. Em meados de 2025, quase 12.000 satélites ativos já orbitavam a Terra, deixando muito pouco espaço para a implementação de projetos de centros de dados orbitais compactos (e, portanto, numerosos). Seria possível implantar mais? Formalmente, sim: existem cálculos que permitem a implantação dinâmica (com movimentos regulares e bem controlados) de satélites.O objetivo é colocar até 72 milhões de satélites em órbitas de baixa altitude (usando manobras coordenadas de desvio em toda a constelação). Mas eis o problema: o desvio de um único satélite de sua trajetória cuidadosamente calculada, especialmente se for destruído (devido a uma colisão com um meteoroide perdido, por exemplo), desencadeia quase instantaneamente uma síndrome de Kessler em larga escala — uma série de colisões cada vez mais violentas, primeiro do primeiro satélite com seus vizinhos desavisados, depois de seus fragmentos com outros, e assim por diante.
O segundo lançamento de teste da Starship em novembro de 2023: todos os 33 motores Raptor do Super Heavy Booster funcionaram normalmente; o foguete explodiu apenas cerca de oito minutos depois (fonte: SpaceX).
É possível posicionar data centers orbitais mais altos, onde a densidade de até mesmo vários milhões de satélites em órbitas vizinhas seria menor? Sim; mas, em primeiro lugar, quanto mais alta a órbita, mais caro é lançar um quilograma de carga útil nela — o que, novamente, atrasa o retorno do investimento. Em segundo lugar, o limite inferior do cinturão de radiação interno da Terra fica a aproximadamente 500 km da superfície (ele também “respira” dependendo da densidade atual do vento solar, portanto, é mais seguro não ultrapassar esse limite). Data centers localizados dentro desse cinturão precisarão ser mais pesados, com blindagem aprimorada contra partículas carregadas de alta energia — ou aceitar o fato de que seus equipamentos semicondutores falharão muito mais rapidamente. Em ambos os casos, o custo por megawatt de capacidade de data center de IA espacial aumentará novamente, deslocando o ponto de equilíbrio de todo o projeto muito mais para a direita. E aqui retornamos às objeções de Altman a Musk, especificamente a segunda: a reparabilidade dos sistemas de computação orbital é praticamente nula — pelo fato de ser mais barato lançar outro satélite do que enviar um engenheiro, mesmo que robótico (quanto mais uma missão tripulada), com peças de reposição para o primeiro e descobrir exatamente o que deu errado.
Os céticos — e são muitos; Sam Altman é simplesmente o mais vocal entre eles, já que suas declarações são amplamente divulgadas na mídia e nas redes sociais — apontam que…Há uma série de outros motivos pelos quais a humanidade não terá condições de arcar com data centers orbitais, muito menos até 2030, ou mesmo a longo prazo. Entre eles, estão as dificuldades com a dissipação de calor de chips aquecidos (convecção e transferência de calor não funcionam em condições de gravidade zero e vácuo, lasers são inúteis, restando apenas a radiação térmica ineficiente — a ciência não conhece outros métodos de transferência de calor além dos três listados acima), a baixíssima eficiência energética dos painéis solares (aproximadamente 2.500 metros quadrados das “asas” da Estação Espacial Internacional geravam mais de 120 kW de energia antes da recente modernização) e atrasos significativos na troca de dados a laser em longas distâncias espaciais (o que reduz consideravelmente a velocidade de execução de modelos realmente grandes virtualizados em data centers compactos fisicamente separados), etc.
Que interlocutor de um modelo generativo não apreciaria a sensação de estar envolvido em tecnologias verdadeiramente avançadas (mesmo orbitais)! (Fonte: Geração de IA baseada no modelo Nano Banana 2)
É razoável concluir que o proverbial truísmo de todo engenheiro aeroespacial, “o espaço é difícil”, se aplica plenamente a projetos de data centers orbitais. No entanto, não há dúvidas: assim que o custo de um quilowatt-hora na superfície do planeta ultrapassar todos os limites razoáveis e se aproximar do custo dos data centers espaciais, a humanidade encontrará uma maneira de atender às suas necessidades computacionais além da Terra. Mas até que as opções mais terrenas se esgotem — subaquáticas (onde a convecção e a transferência de calor são ideais!), equipadas com minirreatores nucleares (energia barata e praticamente “verde”!), localizadas acima do Círculo Polar Ártico para economizar na remoção de calor, e assim por diante — os sonhos de Musk e dos desenvolvedores de data centers orbitais que seguem seus passos permanecerão apenas isso, sonhos. Contudo, de onde, senão dos sonhos, os engenheiros tiram inspiração, criando, em última análise, o que todos antes deles consideravam impossível?
Em outubro passado, a Adobe, como parte do Projeto Moonlight, apresentou um assistente de IA…
A editora THQ Nordic e os desenvolvedores do estúdio alemão Grimlore Games anunciaram o lançamento…
A editora THQ Nordic e os desenvolvedores do estúdio alemão Grimlore Games anunciaram o lançamento…
O Google lançou um aplicativo Gemini completo para computadores com o sistema operacional macOS da…
Apesar das perspectivas promissoras, a gravação holográfica ainda não alcançou sucesso comercial. Gravar e decodificar…
Os desenvolvedores da Bleakmill anunciaram que o jogo de tiro e terror atmosférico Industria 2…