À l'heure où l'IA générative envahit le monde, le moteur de cette vague d'innovation est constitué de puces d'intelligence artificielle à calcul haute vitesse. Au cours des dix dernières années, NVIDIA a semé la graine de la révolution industrielle de l'IA avec ses GPU, et aujourd'hui, le GPU Blackwell, spécialement conçu pour l'entraînement et l'inférence AI les plus avancés, est devenu l'équipement standard des centres de données à travers le monde, avec un volume d'expédition atteignant 6 millions d'unités l'année dernière. Dans les grands racks de serveurs, 72 GPU peuvent être regroupés en une unité de calcul unique de type GPU géant grâce à la technologie NVLink. De nos jours, le marché des puces AI n'est plus le domaine exclusif des GPU NVIDIA, des ASIC personnalisés et des FPGA sont désormais adoptés par de grandes entreprises technologiques. Quelles sont les différences entre ces puces AI ? Comment influenceront-elles le développement de l'IA à l'avenir, et pourraient-elles même ébranler la position dominante de NVIDIA ? Cet article est un extrait traduit et organisé des points clés de la vidéo CNBC.
GPU : Le début de l'ère dorée de l'IA
Les GPU, passant de cartes de jeu à cœurs AI, peuvent être retracés jusqu'à AlexNet en 2012. L'équipe de recherche a été la première à utiliser la puissance de calcul parallèle des GPU NVIDIA pour l'entraînement des réseaux neuronaux, réussissant à devancer de manière significative les autres concurrents lors des compétitions de reconnaissance d'image, ouvrant ainsi l'ère de l'apprentissage profond.
L'avantage principal des GPU réside dans leurs milliers de cœurs de traitement parallèles, capables d'exécuter efficacement des opérations tensoriales telles que la multiplication de matrices, ce qui les rend parfaitement adaptés à l'entraînement et à l'inférence de l'IA. Aujourd'hui, NVIDIA fournit non seulement des GPU à OpenAI, aux gouvernements et aux entreprises du monde entier, mais développe également directement des systèmes de serveurs complets. Le prix d'un serveur Blackwell à une seule unité de rack peut atteindre 3 millions de dollars, et NVIDIA a même révélé qu'elle expédie 1000 unités par semaine, ce qui témoigne de la frénésie de la demande en puissance de calcul pour l'IA. Le concurrent de NVIDIA, AMD, s'appuie sur les GPU Instinct et un écosystème de logiciels open source pour accélérer ses progrès, et a récemment reçu le soutien d'OpenAI et d'Oracle, devenant ainsi un acteur clé sur le marché des infrastructures d'IA. La distinction des GPU AMD réside dans leur utilisation principale de logiciels open source, tandis que les GPU NVIDIA sont étroitement optimisés autour de CUDA, une plateforme de logiciels propriétaire de NVIDIA.
Les ASIC conçus pour un usage unique deviennent une nouvelle tendance.
Des géants du cloud tels que Google, Amazon, Meta, Microsoft, jusqu'à OpenAI et Broadcom, se lancent tous dans la recherche et le développement de circuits intégrés spécifiques à des applications (ASIC) personnalisés. Ces puces conçues pour un usage unique devraient devenir la catégorie de puces AI à la croissance la plus rapide dans les prochaines années.
Avec la maturation des modèles de langage à grande échelle, la demande en inférence dépasse rapidement celle de l'entraînement. Le coût, la consommation d'énergie et la stabilité de l'inférence deviennent des points sensibles pour les plateformes cloud, et c'est précisément le champ de bataille des ASIC. Contrairement aux GPU polyvalents, les ASIC ressemblent à un “outil de précision dédié”, optimisé par codage matériel pour un type de charge de travail AI unique, ce qui permet une vitesse plus rapide et une consommation d'énergie plus faible. L'inconvénient est qu'ils sont moins flexibles et que le seuil de développement est extrêmement élevé, le coût de conception d'une puce personnalisée atteignant facilement des milliards de dollars, ce qui fait que seuls les géants du cloud peuvent se le permettre.
Le coût des ASIC personnalisés pour l'IA est plus élevé. Extrêmement coûteux, nécessitant au moins des milliers voire des millions de dollars. Mais pour les grands fournisseurs de services cloud qui ne peuvent pas se permettre des ASIC personnalisés, le AS6 personnalisé peut apporter des retours car il est plus efficace en énergie et réduit la dépendance à NVIDIA.
Les ASIC d'Broadcom défient fortement la part de marché de l'IA.
Broadcom et des sociétés de conception de semi-conducteurs comme Marvell sont des partenaires stratégiques clés pour de grandes entreprises de cloud computing. Le TPU de Google, l'accélérateur développé par Meta, ainsi que l'ASIC qui sera bientôt lancé par OpenAI, ont tous été profondément impliqués par Broadcom. Broadcom aide à construire le TPU de Google et l'entraînement d'inférence AI de Meta, et les analystes estiment que la part de marché de Broadcom dans le marché des ASIC personnalisés pourrait atteindre 70 % à 80 %.
FPGA : un choix flexible entre ASIC et GPU
Les FPGA sont des puces qui fournissent un support pour l'IA en périphérie sur les appareils plutôt que dans le cloud. Le principal avantage des FPGA réside dans leur “reconfigurabilité”. Lorsque les entreprises ont besoin de tester des architectures avant que le matériel ne soit finalisé, les FPGA offrent une option intermédiaire entre la polyvalence des GPU et la haute performance des ASIC. Bien que leur performance soit inférieure à celle des ASIC, leur flexibilité en fait un choix privilégié par les centres de données et les équipements embarqués. AMD (acquisition de Xilinx) et Intel (acquisition d'Altera) sont les deux principaux acteurs du marché des FPGA.
Google TPU
Google est le premier grand acteur des ASIC, ayant été le premier à créer des circuits intégrés spécifiques à des applications (ASIC) personnalisés pour l'accélération de l'intelligence artificielle, et a introduit le terme Tensor Processing Unit (unité de traitement tensoriel, TPU) lorsque son premier ASIC est sorti en 2015. Le TPU a également contribué à l'invention par Google de l'architecture Transformer en 2017, qui est devenue une base commune pour des IA comme ChatGPT et Claude. Aujourd'hui, Google a développé la 7e génération de TPU Ironwood et aide Anthropologie à utiliser des millions de TPU pour former des modèles de la série Claude. Des rumeurs circulent selon lesquelles le TPU surpasse même les GPU de NVIDIA dans certaines situations, mais Google l'utilise traditionnellement uniquement pour ses propres besoins, donc le véritable potentiel du TPU n'a pas encore été complètement libéré.
AWS Tranium : matrice d'inférence dans le cloud
Après l'acquisition d'Annapurna Labs, AWS s'est pleinement engagé dans ses propres puces AI. Tranium et Inferentia sont devenus des piliers importants de la plateforme d'entraînement et d'inférence d'AWS. Tranium est composé de nombreux moteurs de tenseur de petite taille, offrant une grande flexibilité, et selon AWS, son rapport qualité-prix est supérieur de 30 % à 40 % à celui d'autres matériels dans le cloud. En 2024, Anthropic utilisera 500 000 Tranium 2 pour entraîner des modèles dans le centre de données d'AWS dans le nord de l'Indiana, sans utiliser de GPU Nvidia, ce qui montre que le statut des ASIC est en hausse.
NPU (processeur de réseau neuronal) : puces AI de périphérie pour téléphones, ordinateurs et dispositifs automobiles
En plus des centres de données, les puces AI s'étendent également aux appareils personnels. Les NPU (processeurs de réseau neuronal) sont des puces spécialement conçues pour exécuter l'intelligence artificielle en périphérie sur les appareils, plutôt que dans le cloud, garantissant ainsi la confidentialité personnelle. Elles sont désormais intégrées dans les SoC Qualcomm Snapdragon, AMD, Intel et Apple M, utilisées pour les téléphones, les ordinateurs portables, les maisons intelligentes, les voitures et même les robots. L'IA côté appareil apportera une meilleure protection de la vie privée, une latence réduite et un contrôle accru, constituant un moteur important pour la prochaine vague de vulgarisation de l'IA.
TSMC devient le cœur de la bataille pour les puces
Que ce soit pour les puces Blackwell de Nvidia, les TPU de Google ou les Tranium d'AWS, la plupart des puces AI sont finalement fabriquées par TSMC. Cela lie étroitement l'approvisionnement en puissance de calcul AI à la géopolitique mondiale. Les États-Unis tentent de ramener une partie de la capacité de fabrication de puces sur le sol national grâce à l'usine de TSMC en Arizona et au processus 18A d'Intel. Cependant, des entreprises chinoises comme Huawei et Alibaba s'efforcent également de développer leurs propres ASIC, cherchant des solutions de remplacement locales sous des mesures de contrôle des exportations.
L'ère des champions des puces AI est arrivée.
Que ce soit la domination écrasante des GPU de Nvidia, ou les pistes ASIC et NPU des entreprises comme Google, AWS, Meta et OpenAI qui poussent l'IA de périphérie vers chaque téléphone et voiture, la guerre des puces continue de s'intensifier. Bien qu'il ne soit pas facile de déloger Nvidia de sa position, le marché de l'IA est immense et de nouveaux acteurs continuent d'affluer, rendant la carte des puces dans la prochaine décennie sûrement plus compétitive.
Cet article traite des différences techniques entre les GPU Nvidia et les puces AI développées par Google et Amazon AWS, ainsi que des tendances futures du marché. Il est apparu pour la première fois sur Chaîne News ABMedia.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les différences techniques entre les GPU NVIDIA et les puces AI développées par Google et Amazon AWS, ainsi que les tendances futures du marché.
À l'heure où l'IA générative envahit le monde, le moteur de cette vague d'innovation est constitué de puces d'intelligence artificielle à calcul haute vitesse. Au cours des dix dernières années, NVIDIA a semé la graine de la révolution industrielle de l'IA avec ses GPU, et aujourd'hui, le GPU Blackwell, spécialement conçu pour l'entraînement et l'inférence AI les plus avancés, est devenu l'équipement standard des centres de données à travers le monde, avec un volume d'expédition atteignant 6 millions d'unités l'année dernière. Dans les grands racks de serveurs, 72 GPU peuvent être regroupés en une unité de calcul unique de type GPU géant grâce à la technologie NVLink. De nos jours, le marché des puces AI n'est plus le domaine exclusif des GPU NVIDIA, des ASIC personnalisés et des FPGA sont désormais adoptés par de grandes entreprises technologiques. Quelles sont les différences entre ces puces AI ? Comment influenceront-elles le développement de l'IA à l'avenir, et pourraient-elles même ébranler la position dominante de NVIDIA ? Cet article est un extrait traduit et organisé des points clés de la vidéo CNBC.
GPU : Le début de l'ère dorée de l'IA
Les GPU, passant de cartes de jeu à cœurs AI, peuvent être retracés jusqu'à AlexNet en 2012. L'équipe de recherche a été la première à utiliser la puissance de calcul parallèle des GPU NVIDIA pour l'entraînement des réseaux neuronaux, réussissant à devancer de manière significative les autres concurrents lors des compétitions de reconnaissance d'image, ouvrant ainsi l'ère de l'apprentissage profond.
L'avantage principal des GPU réside dans leurs milliers de cœurs de traitement parallèles, capables d'exécuter efficacement des opérations tensoriales telles que la multiplication de matrices, ce qui les rend parfaitement adaptés à l'entraînement et à l'inférence de l'IA. Aujourd'hui, NVIDIA fournit non seulement des GPU à OpenAI, aux gouvernements et aux entreprises du monde entier, mais développe également directement des systèmes de serveurs complets. Le prix d'un serveur Blackwell à une seule unité de rack peut atteindre 3 millions de dollars, et NVIDIA a même révélé qu'elle expédie 1000 unités par semaine, ce qui témoigne de la frénésie de la demande en puissance de calcul pour l'IA. Le concurrent de NVIDIA, AMD, s'appuie sur les GPU Instinct et un écosystème de logiciels open source pour accélérer ses progrès, et a récemment reçu le soutien d'OpenAI et d'Oracle, devenant ainsi un acteur clé sur le marché des infrastructures d'IA. La distinction des GPU AMD réside dans leur utilisation principale de logiciels open source, tandis que les GPU NVIDIA sont étroitement optimisés autour de CUDA, une plateforme de logiciels propriétaire de NVIDIA.
Les ASIC conçus pour un usage unique deviennent une nouvelle tendance.
Des géants du cloud tels que Google, Amazon, Meta, Microsoft, jusqu'à OpenAI et Broadcom, se lancent tous dans la recherche et le développement de circuits intégrés spécifiques à des applications (ASIC) personnalisés. Ces puces conçues pour un usage unique devraient devenir la catégorie de puces AI à la croissance la plus rapide dans les prochaines années.
Avec la maturation des modèles de langage à grande échelle, la demande en inférence dépasse rapidement celle de l'entraînement. Le coût, la consommation d'énergie et la stabilité de l'inférence deviennent des points sensibles pour les plateformes cloud, et c'est précisément le champ de bataille des ASIC. Contrairement aux GPU polyvalents, les ASIC ressemblent à un “outil de précision dédié”, optimisé par codage matériel pour un type de charge de travail AI unique, ce qui permet une vitesse plus rapide et une consommation d'énergie plus faible. L'inconvénient est qu'ils sont moins flexibles et que le seuil de développement est extrêmement élevé, le coût de conception d'une puce personnalisée atteignant facilement des milliards de dollars, ce qui fait que seuls les géants du cloud peuvent se le permettre.
Le coût des ASIC personnalisés pour l'IA est plus élevé. Extrêmement coûteux, nécessitant au moins des milliers voire des millions de dollars. Mais pour les grands fournisseurs de services cloud qui ne peuvent pas se permettre des ASIC personnalisés, le AS6 personnalisé peut apporter des retours car il est plus efficace en énergie et réduit la dépendance à NVIDIA.
Les ASIC d'Broadcom défient fortement la part de marché de l'IA.
Broadcom et des sociétés de conception de semi-conducteurs comme Marvell sont des partenaires stratégiques clés pour de grandes entreprises de cloud computing. Le TPU de Google, l'accélérateur développé par Meta, ainsi que l'ASIC qui sera bientôt lancé par OpenAI, ont tous été profondément impliqués par Broadcom. Broadcom aide à construire le TPU de Google et l'entraînement d'inférence AI de Meta, et les analystes estiment que la part de marché de Broadcom dans le marché des ASIC personnalisés pourrait atteindre 70 % à 80 %.
FPGA : un choix flexible entre ASIC et GPU
Les FPGA sont des puces qui fournissent un support pour l'IA en périphérie sur les appareils plutôt que dans le cloud. Le principal avantage des FPGA réside dans leur “reconfigurabilité”. Lorsque les entreprises ont besoin de tester des architectures avant que le matériel ne soit finalisé, les FPGA offrent une option intermédiaire entre la polyvalence des GPU et la haute performance des ASIC. Bien que leur performance soit inférieure à celle des ASIC, leur flexibilité en fait un choix privilégié par les centres de données et les équipements embarqués. AMD (acquisition de Xilinx) et Intel (acquisition d'Altera) sont les deux principaux acteurs du marché des FPGA.
Google TPU
Google est le premier grand acteur des ASIC, ayant été le premier à créer des circuits intégrés spécifiques à des applications (ASIC) personnalisés pour l'accélération de l'intelligence artificielle, et a introduit le terme Tensor Processing Unit (unité de traitement tensoriel, TPU) lorsque son premier ASIC est sorti en 2015. Le TPU a également contribué à l'invention par Google de l'architecture Transformer en 2017, qui est devenue une base commune pour des IA comme ChatGPT et Claude. Aujourd'hui, Google a développé la 7e génération de TPU Ironwood et aide Anthropologie à utiliser des millions de TPU pour former des modèles de la série Claude. Des rumeurs circulent selon lesquelles le TPU surpasse même les GPU de NVIDIA dans certaines situations, mais Google l'utilise traditionnellement uniquement pour ses propres besoins, donc le véritable potentiel du TPU n'a pas encore été complètement libéré.
AWS Tranium : matrice d'inférence dans le cloud
Après l'acquisition d'Annapurna Labs, AWS s'est pleinement engagé dans ses propres puces AI. Tranium et Inferentia sont devenus des piliers importants de la plateforme d'entraînement et d'inférence d'AWS. Tranium est composé de nombreux moteurs de tenseur de petite taille, offrant une grande flexibilité, et selon AWS, son rapport qualité-prix est supérieur de 30 % à 40 % à celui d'autres matériels dans le cloud. En 2024, Anthropic utilisera 500 000 Tranium 2 pour entraîner des modèles dans le centre de données d'AWS dans le nord de l'Indiana, sans utiliser de GPU Nvidia, ce qui montre que le statut des ASIC est en hausse.
NPU (processeur de réseau neuronal) : puces AI de périphérie pour téléphones, ordinateurs et dispositifs automobiles
En plus des centres de données, les puces AI s'étendent également aux appareils personnels. Les NPU (processeurs de réseau neuronal) sont des puces spécialement conçues pour exécuter l'intelligence artificielle en périphérie sur les appareils, plutôt que dans le cloud, garantissant ainsi la confidentialité personnelle. Elles sont désormais intégrées dans les SoC Qualcomm Snapdragon, AMD, Intel et Apple M, utilisées pour les téléphones, les ordinateurs portables, les maisons intelligentes, les voitures et même les robots. L'IA côté appareil apportera une meilleure protection de la vie privée, une latence réduite et un contrôle accru, constituant un moteur important pour la prochaine vague de vulgarisation de l'IA.
TSMC devient le cœur de la bataille pour les puces
Que ce soit pour les puces Blackwell de Nvidia, les TPU de Google ou les Tranium d'AWS, la plupart des puces AI sont finalement fabriquées par TSMC. Cela lie étroitement l'approvisionnement en puissance de calcul AI à la géopolitique mondiale. Les États-Unis tentent de ramener une partie de la capacité de fabrication de puces sur le sol national grâce à l'usine de TSMC en Arizona et au processus 18A d'Intel. Cependant, des entreprises chinoises comme Huawei et Alibaba s'efforcent également de développer leurs propres ASIC, cherchant des solutions de remplacement locales sous des mesures de contrôle des exportations.
L'ère des champions des puces AI est arrivée.
Que ce soit la domination écrasante des GPU de Nvidia, ou les pistes ASIC et NPU des entreprises comme Google, AWS, Meta et OpenAI qui poussent l'IA de périphérie vers chaque téléphone et voiture, la guerre des puces continue de s'intensifier. Bien qu'il ne soit pas facile de déloger Nvidia de sa position, le marché de l'IA est immense et de nouveaux acteurs continuent d'affluer, rendant la carte des puces dans la prochaine décennie sûrement plus compétitive.
Cet article traite des différences techniques entre les GPU Nvidia et les puces AI développées par Google et Amazon AWS, ainsi que des tendances futures du marché. Il est apparu pour la première fois sur Chaîne News ABMedia.