L'infrastructure derrière le Google AI Gemini que vous devez absolument connaître 🏗️👇
Puces AI $AVGO - Broadcom : Conception de TPU sur mesure pour Google, réduction des coûts des puces, évitant d’être fixé par le prix de Nvidia $NVDA $TSM - TSMC : Seul fabricant capable de produire en masse des TPU avancés pour Google avec un taux de rendement élevé $ARM - ARM : Fournit l’architecture CPU utilisée par Google pour l’inférence et le contrôle AI $CDNS - Cadence Design Systems : Outils logiciels pour la conception de la prochaine génération de puces AI pour Google $SNPS - Synopsys : Fournit des tests de puces et des IP pour garantir la qualité des TPU en sortie de fabrication $AMKR - Anoc Technology : Intègre TPU et mémoire dans un seul boîtier pour permettre à Google de faire fonctionner à grande échelle dans ses centres de données
Réseau AI $ALAB - Alcobra Labs : Supporte l’interconnexion à haute vitesse au niveau des racks, aidant à l’expansion du cluster TPU de Google $MRVL - Mian Electronics : Fournit des puces réseau personnalisées pour les centres de données AI de Google $CRDO - Credo Technology Group : Autorise la technologie de transmission de données interne au matériel AI de Google $ANET - Erista Networks : Fournit des commutateurs réseau internes pour le cluster AI de Google $CIEN - Cisco Systems (Ciena) : Responsable du transfert de données longue distance entre les centres de données de Google
Infrastructures communes AI $CIFR - Cipher Mining : Fournit des sites de puissance pour soutenir la charge de travail AI à grande échelle $WULF - Wulfpack Infrastructure : Exploite une infrastructure de calcul à haute densité, déployable à grande échelle
Mémoire AI $MU - Micron Technology : Fournit de la mémoire DRAM et HBM pour l’expansion de l’inférence AI $WDC - Western Digital : Stocke d’énormes volumes de données nécessaires à l’entraînement des modèles AI de Google
Optique AI $LITE - Lumentum Holdings : Fournit des composants optiques pour les centres de données AI de Google $COHR - Coherent Inc. : Fournit des lasers pour la transmission optique à haute vitesse
Alimentation et refroidissement AI $VRT - Vertiv Holdings : Fournit des infrastructures de refroidissement pour assurer la stabilité en ligne du matériel AI de Google
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'infrastructure derrière le Google AI Gemini que vous devez absolument connaître 🏗️👇
Puces AI
$AVGO - Broadcom : Conception de TPU sur mesure pour Google, réduction des coûts des puces, évitant d’être fixé par le prix de Nvidia $NVDA
$TSM - TSMC : Seul fabricant capable de produire en masse des TPU avancés pour Google avec un taux de rendement élevé
$ARM - ARM : Fournit l’architecture CPU utilisée par Google pour l’inférence et le contrôle AI
$CDNS - Cadence Design Systems : Outils logiciels pour la conception de la prochaine génération de puces AI pour Google
$SNPS - Synopsys : Fournit des tests de puces et des IP pour garantir la qualité des TPU en sortie de fabrication
$AMKR - Anoc Technology : Intègre TPU et mémoire dans un seul boîtier pour permettre à Google de faire fonctionner à grande échelle dans ses centres de données
Réseau AI
$ALAB - Alcobra Labs : Supporte l’interconnexion à haute vitesse au niveau des racks, aidant à l’expansion du cluster TPU de Google
$MRVL - Mian Electronics : Fournit des puces réseau personnalisées pour les centres de données AI de Google
$CRDO - Credo Technology Group : Autorise la technologie de transmission de données interne au matériel AI de Google
$ANET - Erista Networks : Fournit des commutateurs réseau internes pour le cluster AI de Google
$CIEN - Cisco Systems (Ciena) : Responsable du transfert de données longue distance entre les centres de données de Google
Infrastructures communes AI
$CIFR - Cipher Mining : Fournit des sites de puissance pour soutenir la charge de travail AI à grande échelle
$WULF - Wulfpack Infrastructure : Exploite une infrastructure de calcul à haute densité, déployable à grande échelle
Mémoire AI
$MU - Micron Technology : Fournit de la mémoire DRAM et HBM pour l’expansion de l’inférence AI
$WDC - Western Digital : Stocke d’énormes volumes de données nécessaires à l’entraînement des modèles AI de Google
Optique AI
$LITE - Lumentum Holdings : Fournit des composants optiques pour les centres de données AI de Google
$COHR - Coherent Inc. : Fournit des lasers pour la transmission optique à haute vitesse
Alimentation et refroidissement AI
$VRT - Vertiv Holdings : Fournit des infrastructures de refroidissement pour assurer la stabilité en ligne du matériel AI de Google