A infraestrutura por trás do Google AI Gemini que você precisa conhecer 🏗️👇
Chips de IA $AVGO - Broadcom: ajuda a Google a projetar TPU personalizados, reduzindo o custo dos chips e evitando que a Nvidia $NVDA defina os preços $TSM - TSMC: a única fábrica capaz de produzir em grande escala os TPU avançados da Google com alta taxa de rendimento $ARM - ARM: fornece a arquitetura de CPU usada pela Google para inferência e controle de IA $CDNS - Cadence Design Systems: vende à Google as ferramentas de software para projetar a próxima geração de chips de IA $SNPS - Synopsys: fornece testes de chips e IP, garantindo que os TPU saiam de fábrica sem problemas $AMKR - Amkor Technology: embala TPU e memória juntos, permitindo que a Google opere em larga escala nos data centers
Rede de IA $ALAB - Alcobra Labs: suporta interconexões de alta velocidade em racks, ajudando a expandir o cluster de TPU da Google $MRVL - Mian Electronics: fornece chips de rede personalizados para os data centers de IA da Google $CRDO - Credo Technology Group: fornece licenças de tecnologia de transmissão de dados para uso interno no hardware de IA da Google $ANET - Eista Networks: fornece switches de rede internos para o cluster de IA da Google $CIEN - Cisco Systems (Ciena): responsável pela transmissão de dados de longa distância entre os data centers da Google
Infraestrutura comum de IA $CIFR - Cipher Mining: fornece instalações de energia para suportar cargas de trabalho de IA em grande escala $WULF - Wulfpack Infrastructure: opera infraestrutura de alta densidade de computação, apta para implantar computação em larga escala
Memória de IA $MU - Micron Technology: fornece memória DRAM e HBM para suportar a expansão da inferência de IA $WDC - Western Digital: armazena os enormes volumes de dados necessários para treinar modelos de IA da Google
Óptica de IA $LITE - Lumentum Holdings: fornece componentes ópticos para os data centers de IA da Google $COHR - Coherent Inc.: fornece lasers necessários para transmissão óptica de alta velocidade
Energia e resfriamento de IA $VRT - Vertiv Holdings: fornece infraestrutura de resfriamento para manter o hardware de IA da Google funcionando de forma estável
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A infraestrutura por trás do Google AI Gemini que você precisa conhecer 🏗️👇
Chips de IA
$AVGO - Broadcom: ajuda a Google a projetar TPU personalizados, reduzindo o custo dos chips e evitando que a Nvidia $NVDA defina os preços
$TSM - TSMC: a única fábrica capaz de produzir em grande escala os TPU avançados da Google com alta taxa de rendimento
$ARM - ARM: fornece a arquitetura de CPU usada pela Google para inferência e controle de IA
$CDNS - Cadence Design Systems: vende à Google as ferramentas de software para projetar a próxima geração de chips de IA
$SNPS - Synopsys: fornece testes de chips e IP, garantindo que os TPU saiam de fábrica sem problemas
$AMKR - Amkor Technology: embala TPU e memória juntos, permitindo que a Google opere em larga escala nos data centers
Rede de IA
$ALAB - Alcobra Labs: suporta interconexões de alta velocidade em racks, ajudando a expandir o cluster de TPU da Google
$MRVL - Mian Electronics: fornece chips de rede personalizados para os data centers de IA da Google
$CRDO - Credo Technology Group: fornece licenças de tecnologia de transmissão de dados para uso interno no hardware de IA da Google
$ANET - Eista Networks: fornece switches de rede internos para o cluster de IA da Google
$CIEN - Cisco Systems (Ciena): responsável pela transmissão de dados de longa distância entre os data centers da Google
Infraestrutura comum de IA
$CIFR - Cipher Mining: fornece instalações de energia para suportar cargas de trabalho de IA em grande escala
$WULF - Wulfpack Infrastructure: opera infraestrutura de alta densidade de computação, apta para implantar computação em larga escala
Memória de IA
$MU - Micron Technology: fornece memória DRAM e HBM para suportar a expansão da inferência de IA
$WDC - Western Digital: armazena os enormes volumes de dados necessários para treinar modelos de IA da Google
Óptica de IA
$LITE - Lumentum Holdings: fornece componentes ópticos para os data centers de IA da Google
$COHR - Coherent Inc.: fornece lasers necessários para transmissão óptica de alta velocidade
Energia e resfriamento de IA
$VRT - Vertiv Holdings: fornece infraestrutura de resfriamento para manter o hardware de IA da Google funcionando de forma estável