Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Actuellement, comment briser la « bulle » de l'IA ? - Plateforme d'échange de crypto-monnaies cryptée sûre et fiable
Récemment, les actions de sociétés liées à l’IA ont subi de lourdes pertes en raison des cycles de financement répétés aux États-Unis, des investissements à haut rendement sans retours visibles et de l’absence de liquidité sur les marchés mondiaux.
Les grands fournisseurs de CSP ont modifié l’amortissement, les flux de trésorerie et le ratio des dépenses en capital aux revenus, ce que j’ai mentionné dès le milieu de l’année dernière. À l’époque, le marché l’ignorait et continuait à foncer sur l’IA. Maintenant, cela refait l’objet de débats intenses. La raison fondamentale est exactement la même qu’avant : on ne voit toujours pas d’applications révolutionnaires et de rentabilité correspondant aux dépenses en capital. En clair, la bulle que le marché perçoit réside dans les coûts d’investissement trop élevés.
Cependant, il est maintenant impossible pour tout le monde d’arrêter d’investir dans l’IA. Plutôt que de chercher à prédire vaguement l’effondrement des dépenses en capital et le moment d’apparition des applications révolutionnaires, il vaut mieux étudier les tendances actuelles du secteur pour résoudre le problème de la « bulle » de l’IA.
Comment la résoudre ? La réponse est la réduction des coûts. La tendance de développement de toute technologie doit nécessairement passer par la baisse constante de son coût unitaire, sinon elle ne pourrait pas se généraliser. C’est de cette manière que nous sommes passés du Motorola DynaTAC au PHS et aux smartphones, et d’Internet à l’Internet mobile.
Alors, quels sont les plus grands défis actuels de l’IA : les dépenses en capital élevées et le manque d’électricité. Cela correspond à des GPU trop chers et une consommation d’énergie excessive. Comment résoudre ce problème ? Il y a deux chemins :
Un. Réduire le coût système de la carte de calcul
(1) Développer ses propres puces. Google en est l’exemple typique. Comme Apple, Google appartient à la catégorie des entreprises rich-cash, avec un écosystème fermé et une expertise logiciels-matériel, devenant naturellement un guerrier hexagonal. C’est pour cette raison que le vieil homme Buffett en a fait son dernier investissement de sa vie.
D’après ce tableau, la TPU7 de Google offre une configuration assez impressionnante. Deux unités peuvent pratiquement rivaliser avec la B300, mais en termes de prix, on pourrait acheter environ quatre TPU7 avec le prix d’une B300.
Par conséquent, les prévisions d’expédition de TPU pour 2026 ont atteint quatre millions d’unités, rattrapant presque les prévisions d’expédition de Rubin pour 2026.
L’impact sur l’industrie réside dans le fait que si le GPU générique et les cartes propriétaires atteignent un ratio de marché total de 1:1 à long terme, cela signifie que avec la même dépense en capital, on peut réaliser environ 1,5 fois ou plus de puissance de calcul et de capacité de stockage.
La même logique s’applique aux produits d’accompagnement comme les modules optiques. Plus de cartes signifient une augmentation des besoins d’accompagnement.
(Ceci a été écrit le 7 septembre ; juste avant l’explosion récente du stockage. Pour plus de détails, veuillez consulter le contenu de cette époque.)
(2) Diviser un GPU traditionnel en deux configurations différentes : l’inférence et l’entraînement profond, en adoptant un schéma de mémoire haute-basse assemblé. La combinaison Rubin+CPX d’Nvidia et les puces de la série 950PR+950DR d’Ascend en sont des exemples. La partie logique peut utiliser la même puce, mais en adoptant différentes configurations de mémoire pour réduire les coûts.
Par exemple, 288G de HBM4 coûte déjà plus de 30 000 yuans chinois, mais 288G de GDDR7 coûte seulement environ 15 000 yuans. L’allègement du prétraitement de texte peut réduire considérablement le coût de ma carte d’inférence, permettant de déployer plus de cartes pour l’inférence.
L’Ascend 950PR, utilisant le HI BL1.0 auto-développé, est un programme innovant domestique de carte d’inférence haute bande passante non-HBM traditionnel. Puisque cela n’a pas été officiellement lancé, ce n’est pas approprié d’en discuter ouvertement, mais les professionnels du secteur devraient avoir une idée.
Deux. Réduire la consommation d’énergie des serveurs
Les nouvelles de cette semaine l’ont déjà mentionné : pour réduire la consommation d’énergie des serveurs d’IA, Nvidia a récemment décidé de remplacer la mémoire utilisée par les serveurs, habituellement la DDR5 (mémoire dynamique synchrone d’accès aléatoire à double débit de cinquième génération), par LPDDR5X — la même mémoire utilisée par de nombreux téléphones phares.
Concernant l’efficacité énergétique des puces d’IA nationales, comme Qualcomm, c’est beaucoup plus radical que Nvidia. Tandis qu’ils utilisent lpddr pour économiser de l’énergie sur le stockage du CPU, nous avons directement mis nos efforts sur le stockage du GPU. Je ne peux pas en révéler davantage, mais vous comprenez.
De plus, il y a le passage de la refroidissement par air aux serveurs à refroidissement par liquide. Naturellement, c’est un domaine clé de la consommation d’énergie.
En bref, il y aura de nombreux changements structurels dans l’industrie, et ces domaines restent des opportunités futures majeures.
Concernant le stockage, cette semaine a été très difficile. D’une part, c’est une question de liquidité, d’autre part, il y a la soi-disant expansion massive de la capacité de mémoire.
Tout d’abord, les nouvelles capacités réellement construites par SK Hynix et Samsung ne sont que M15X et Pyeongtaek P4, respectivement. Le reste provient de la conversion de leur propre ancienne capacité de technologie DDR4/LPDDR5, ce qui ne compte pas vraiment comme une nouvelle capacité. Le titre « expansion XX fois 8 » est en grande partie un jeu de mots. Premièrement, le procédé 1C avancé avait une base très petite à l’origine. Deuxièmement, plus de 50% provient de mises à niveau du procédé des capacités existantes. L’augmentation réelle du volume total est plutôt limitée.
De plus, cette expansion ne peut être réalisée qu’après le second semestre 2026, et certaines sont même des contrats à terme pour 2027-2028. L’installation peut tout à fait s’ajuster en fonction de la demande du marché.
Maintenir les prix de la DRAM dans une bande de fluctuation relativement élevée, élargir les ventes pour répondre à la demande — c’est ce que les fabricants de mémoire veulent faire et doivent faire. Obtenir une marge bénéficiaire élevée à long terme similaire à celle de la HBM, avec la croissance du volume et des prix. Étant donné que le DRAM n’est contrôlé que par trois acteurs — Samsung, Micron et SK Hynix — il y aurait apparemment quelques arrangements entre les deux entreprises coréennes en vertu du tableau.
De plus, il est important de noter que ce que tout le monde voit, c’est le prix au comptant. Le prix contractuel des fabricants est bien inférieur au prix au comptant. Même si le prix au comptant était divisé par deux, le prix des fabricants resterait 50% inférieur au prix au comptant.
De l’extension de HBM à la mémoire universelle, ce qui a augmenté considérablement la proportion des activités d’IA, le « moment des modules optiques » où les fabricants de mémoire connaissent une croissance volume-prix a maintenant arrive.
Bank of America a également publié un rapport décrivant la gêne actuelle. Il y a de grandes divergences au sein des acheteurs. Les analystes des côté achat sont optimistes sur le stockage, mais les gestionnaires de fonds ont peur de devenir preneur en dernier ressort. Simplement dit, les experts pensent que tout va bien, mais ceux qui gèrent l’argent s’inquiètent. On ne peut que se précipiter après que le marché secondaire ait touché son fond.
$TAO $DAI $AIA