Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Google-Mémanie, en lançant une coopération en semi-conducteurs basée sur l'intelligence artificielle, défie Nvidia
Google est en pourparlers avec Mavenir Technologies pour le développement conjoint de deux semi-conducteurs spécialisés dans l’intelligence artificielle, leur intention étant de renforcer la compétitivité de leurs propres puces afin de défier de manière officielle la domination du marché des semi-conducteurs pour l’IA par Nvidia, une tendance de plus en plus évidente.
Selon un rapport de l’agence Reuters citant le média américain spécialisé dans la technologie de l’information The Information, en date du 19, Google et Mavenir discutent de la conception de ces deux puces. Il est rapporté que l’une d’elles est un dispositif de mémoire fonctionnant en collaboration avec le processeur tensoriel de Google (TPU, semi-conducteur conçu spécifiquement pour le calcul d’intelligence artificielle), et l’autre une nouvelle version de TPU optimisée pour entraîner des modèles d’IA. Étant donné la tendance de Google à renforcer depuis longtemps ses semi-conducteurs internes dédiés aux centres de données, cette initiative peut être interprétée comme une tentative d’étendre la portée de la conception, passant de l’amélioration des performances de calcul à la réduction des goulets d’étranglement de la mémoire.
Les dispositifs de mémoire sont considérés comme une étape clé dans la compétition des semi-conducteurs pour l’IA. Les grands modèles linguistiques ou l’IA générative nécessitent un accès rapide à d’énormes volumes de données, et la simple puissance de calcul ne suffit pas à améliorer la performance globale. Par conséquent, la conception efficace du transfert de données entre le processeur et la mémoire devient une compétence centrale. Selon les informations, les deux entreprises visent à finaliser la conception de ces dispositifs d’ici 2027, puis à passer à une phase de production pilote.
L’importance de cette discussion réside dans le fait qu’elle intervient dans un contexte où Google TPU doit faire face à la concurrence des processeurs graphiques (GPU, initialement conçus pour le traitement graphique, mais désormais largement utilisés pour l’apprentissage et l’inférence en IA) d’Nvidia. Bien que le marché des semi-conducteurs pour l’IA soit actuellement dominé par Nvidia, les grandes entreprises technologiques accélèrent le développement de leurs propres puces pour réduire leur dépendance à la chaîne d’approvisionnement externe et maîtriser leurs coûts. Google doit également renforcer ses capacités de conception autonome pour garantir la stabilité de ses services de recherche, de cloud computing et d’IA générative.
Les mouvements récents de Mavenir méritent également une attention particulière. La société a annoncé le 31 du mois dernier avoir établi un partenariat stratégique avec Nvidia, ainsi que reçu un investissement de 2 milliards de dollars de la part de Nvidia. Les deux parties prévoient d’utiliser la technologie NVLink Fusion de Nvidia pour intégrer Mavenir dans l’écosystème des usines d’IA de Nvidia et du réseau d’accès sans fil basé sur l’IA (AI-RAN), et collaborer dans le domaine de la photonique silicium (technologie utilisant la lumière plutôt que des signaux électriques pour améliorer l’efficacité du transfert de données). De plus, Mavenir a récemment finalisé l’acquisition de Celestial AI, une entreprise spécialisée dans la technologie d’interconnexion optique, pour 3,3 milliards de dollars. Cela est interprété comme une étape visant à acquérir des technologies de nouvelle génération pour augmenter la vitesse de connexion entre puces et mémoire.
En définitive, la discussion de collaboration entre Google et Mavenir dépasse la simple conception de nouveaux produits, illustrant que la compétition pour le contrôle des infrastructures clés de l’ère de l’intelligence artificielle — à savoir, la domination des semi-conducteurs — s’élargit encore davantage. À l’avenir, la compétitivité des entreprises dépendra probablement non seulement des performances des puces de calcul, mais aussi de leur capacité à concevoir de manière intégrée des solutions englobant la gestion de la mémoire, l’interconnexion entre puces et la communication optique. Cette tendance pourrait accélérer le développement de puces en interne par les grandes entreprises technologiques ainsi que la coopération stratégique entre fabricants de semi-conducteurs.