Atualmente, como desmascarar a "bolha" da IA? - Plataforma de troca de criptomoedas seguras e confiáveis

Recentemente, as ações de empresas relacionadas com IA têm sofrido devido às várias rodadas de financiamento nos EUA,

com investimentos de alto valor sem retorno visível e a falta de liquidez nos mercados globais.

Grandes empresas de CSP estão a alterar depreciações,

fluxo de caixa,

e a proporção de despesas de capital em relação à receita já é relativamente alta, como mencionei no meio do ano passado,

mas na altura o mercado ignorou isso,

continuou a apostar forte na IA,

agora voltou a ser um tema quente,

a razão principal é exatamente a mesma de então,

ainda não se viu lucros ou aplicações de sucesso que justifiquem as despesas de capital,

em suma, o mercado vê a bolha como custos de investimento demasiado elevados.

Mas neste momento, ninguém pode realmente deixar de investir em IA,

em vez de fazer previsões vagas sobre o colapso das despesas de capital ou o surgimento de aplicações de sucesso,

é melhor estudar as tendências atuais do setor para resolver o problema da “bolha” da IA.

Como fazer isso?

A resposta é reduzir custos,

qualquer tendência de desenvolvimento tecnológico implica uma redução contínua do custo unitário,

senão, não se pode popularizar.

Desde os grandes telemóveis até aos pequenos telefones fixos, e depois aos smartphones,

da internet à internet móvel, tudo seguiu esse caminho.

Então, qual é o maior desafio atual da IA: altos custos de capital e falta de energia,

que se traduzem em GPUs demasiado caras,

consumo de energia excessivo,

como resolver isso?

Existem duas estratégias:

Primeiro,

Reduzir o custo do sistema de cartões de cálculo

(1) Chips próprios,

um exemplo típico é o Google,

e, assim como a Apple, o Google tem recursos financeiros abundantes,

ecossistema fechado,

um guerreiro hexagonal com hardware e software integrados,

naturalmente, tornou-se o último investimento do fundador do Google, Larry Page.

Da tabela abaixo, também se pode ver que a configuração TPU7 do Google ainda é bastante capaz,

duas unidades com capacidade quase iguais ao B300,

mas, em termos de preço,

uma B300 provavelmente equivale a quatro TPU7.

Assim, a previsão de entregas de TPU para 2026 já atingiu quatro milhões de unidades,

quase igual às previsões de volume de vendas do Rubin em 2026.

O impacto na indústria é que,

se o mercado de GPUs genéricos e cartões próprios atingir uma proporção de 1:1 a longo prazo,

significa que, com o mesmo investimento de capital,

é possível obter cerca de 1,5 vezes mais capacidade de cálculo e armazenamento.

O mesmo raciocínio aplica-se a módulos ópticos e outros produtos complementares,

mais cartões significam maior demanda por componentes.

(Esta parte foi escrita por mim a 7 de setembro,

antes do pico de armazenamento que ocorreu recentemente,

pode consultar o conteúdo daquela altura para detalhes.)

(2) Dividir uma GPU tradicional em dois tipos de cartões: inferência e treino profundo,

usando configurações de memória de alta e baixa capacidade,

exemplos incluem a combinação Rubin+CPX da Nvidia e os chips da série Ascend 950pr+950dr,

a lógica pode usar o mesmo chip,

mas com diferentes configurações de memória para reduzir custos.

Por exemplo, a memória HBM4 de 288G já custa cerca de 30 mil RMB,

mas uma GDDR7 de 288G pode custar cerca de 15 mil RMB,

a pré-processamento de textos leve pode reduzir significativamente o custo das minhas cartas de inferência,

permitindo a implantação de mais cartões para inferência.

O Ascend 950pr, uma solução de inferência de alta largura de banda não convencional de alta velocidade de banda, desenvolvido internamente, ainda não foi oficialmente lançado e não é adequado discutir publicamente,

mas na indústria, deve-se adivinhar o que é.

Segundo,

Reduzir o consumo de energia dos servidores

Já foi mencionado nas notícias desta semana,

para diminuir o consumo de energia dos servidores de IA,

a Nvidia decidiu recentemente substituir a memória dos servidores de DDR5 (memória de acesso dinâmico síncrono de dupla taxa de quinta geração) por LPDDR5X — a mesma memória usada em muitos smartphones topo de gama.

Quanto ao consumo de energia dos chips de IA nacionais,

como a Qualcomm,

que é ainda mais agressiva que a Nvidia,

eles usam LPDDR para economizar energia na memória do CPU,

enquanto nós focamos na memória da GPU,

não posso revelar mais detalhes,

apenas diga que você sabe.

Além disso, há a troca de refrigeração a ar por líquida nos servidores,

óbvio, né?

Resfriamento é uma questão de consumo de energia.

Resumindo,

a indústria passará por muitas mudanças estruturais, e esses setores ainda representam grandes oportunidades futuras.

No armazenamento,

esta semana também foi bastante difícil,

uma questão é a liquidez,

outra é a expansão em larga escala da produção de memória.

Primeiro, a Hynix e a Samsung têm capacidades novas reais apenas com M15X e P4 em Pyeongtaek,

o resto é apenas a conversão de capacidade antiga de DDR4/LPDDR5 existente,

não se trata de uma expansão real de capacidade,

o título de uma expansão de 8 vezes é mais uma jogada de palavras,

primeiro, porque o processo avançado de 1C tinha uma base pequena,

segundo, mais de 50% é apenas uma atualização de capacidade existente com um processo melhor,

o aumento total real é relativamente limitado.

Além disso, essa expansão só deve acontecer após o segundo semestre de 2026,

algumas até em 2027-2028, com produção futura,

a instalação pode ajustar-se às demandas do mercado.

Manter o preço do DRAM em um nível relativamente alto e flutuante,

aumentar as vendas para atender à demanda,

é o que os fabricantes de armazenamento precisam fazer,

para obter uma margem de lucro elevada a longo prazo, semelhante à do HBM,

com aumento de volume e preço.

Como o mercado de DRAM é dominado apenas por Samsung, Micron e Hynix,

diz-se que duas dessas empresas na Coreia têm alguma coordenação.

Além disso,

é importante notar que,

o preço à vista que vemos é diferente do preço de contrato fornecido pelos fabricantes,

que é bem mais baixo,

mesmo com o preço à vista caindo pela metade, o preço de contrato ainda é cerca de 50% mais baixo.

Expandindo do HBM para armazenamento geral,

a proporção de negócios de IA aumenta significativamente,

e o momento de “pico” de aumento de volume e preço dos módulos ópticos chegou.

O Bank of America também publicou um relatório descrevendo a situação atual,

há grandes divergências internas entre os compradores,

os analistas de compra estão otimistas com o armazenamento,

mas os gestores de fundos temem assumir riscos,

em termos simples, os especialistas acham que não há problema,

mas os gestores de dinheiro estão preocupados,

e só vão investir após o mercado secundário atingir o fundo.

TAO-3,24%
DAI-0,01%
AIA-3,53%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar