Il ne s'agit pas d'un autre article rose sur les VC "IA + Web3". Nous sommes optimistes quant à la fusion de ces deux technologies, mais le texte ci-dessous est un appel aux armes. Sinon, l'optimisme ne sera pas justifié.
Pourquoi ? Parce que le développement et l'exécution des meilleurs modèles d'IA nécessitent des dépenses en capital importantes dans le matériel le plus à la pointe et souvent difficile à obtenir ainsi que dans la R&D très spécifique au domaine. Ajouter des incitations crypto pour externaliser ces tâches, comme le font la plupart des projets d'IA Web3, ne suffit pas à compenser les dizaines de milliards de dollars investis par de grandes entreprises qui contrôlent le développement de l'IA de manière ferme. Compte tenu des contraintes matérielles, il s'agit peut-être du premier grand paradigme logiciel que les ingénieurs intelligents et créatifs en dehors des organisations dominantes n'ont pas les ressources pour perturber.
Le logiciel "mange" le monde de plus en plus rapidement, sur le point de décoller de manière exponentielle avec l'accélération de l'IA. Et tout ce "gâteau", tel que les choses se présentent actuellement, revient aux géants de la technologie - tandis que les utilisateurs finaux, y compris les gouvernements et les grandes entreprises, sans parler des consommateurs, deviennent encore plus dépendants de leur pouvoir.
Tout cela ne pouvait pas se dérouler à un moment plus inapproprié - 90% des participants au web décentralisé occupés à poursuivre l'oie aux œufs d'or des gains faciles en monnaie fiduciaire d'un développement axé sur le récit. Oui, les développeurs suivent les investisseurs de notre industrie et non l'inverse. Cela va de l'admission ouverte à une motivation plus subtile et subconsciente, mais les récits et les marchés qui se forment autour d'eux influencent beaucoup de prises de décision dans le Web3. Les participants sont trop absorbés dans une bulle réflexive classique pour remarquer le monde extérieur, à l'exception des récits qui aident à faire avancer ce cycle davantage. Et l'IA est évidemment le plus grand, car elle connaît également un boom propre.
Nous avons parlé avec des dizaines d'équipes dans l'intersection de l'IA x Crypto et pouvons confirmer que beaucoup d'entre elles sont très capables, orientées vers la mission et passionnées. Mais telle est la nature humaine que lorsque confrontés à des tentations, nous avons tendance à y succomber, puis à rationaliser ces choix postérieurement.
Le chemin facile vers la liquidité a été une malédiction historique de l'industrie de la cryptographie - responsable de ralentir son développement et son adoption utile de plusieurs années à ce stade. Il détourne même les disciples de la cryptographie les plus fidèles vers le "pompage du jeton". La rationalisation est qu'avec plus de capital à portée de main sous forme de jetons, ces constructeurs ont de meilleures chances.
Relatively low sophistication of both institutional and retail capital creates opportunities for builders to make claims detached from reality while still benefiting from valuations as if those claims already came to fruition. The outcome of these processes is an actually entrenched moral hazard and capital destruction, with very few of such strategies working out over the long term. Necessity is the mother of all inventions and when it’s gone, so are the inventions.
Cela ne pouvait pas arriver à un pire moment. Alors que tous les entrepreneurs technologiques les plus intelligents, les acteurs étatiques et les entreprises, grandes et petites, se précipitent pour garantir leur part des avantages découlant de la révolution de l'IA, les fondateurs de cryptomonnaies et les investisseurs optent pour un "quick 10x". Au lieu d'une vie entière de 1000 x, qui est le coût d'opportunité réel ici, à notre avis.
Étant donné les incitations mentionnées ci-dessus, la taxonomie du projet Web3 AI se résume en fait à :
Fondamentalement, nous pensons que les constructeurs savent exactement ce qu'il faut pour rivaliser avec leur concurrence Web2 et les secteurs où il est réellement possible de rivaliser et où c'est plus un rêve irréalisable, mais qui est néanmoins vendable aux VC et au public non averti.
L'objectif est de pouvoir rivaliser ici et maintenant. Sinon, la rapidité du développement de l'IA pourrait laisser Web3 derrière alors que le monde passe au Web4 dystopique de l'IA d'entreprise à l'Ouest contre l'IA d'État de la Chine. Ceux qui ne peuvent pas être compétitifs assez rapidement et qui comptent sur la technologie distribuée pour rattraper sur un horizon temporel plus long sont trop optimistes pour être pris au sérieux.
De toute évidence, il s'agit d'une généralisation très approximative et même le groupe Faker contient au moins quelques équipes sérieuses (et peut-être plus de rêveurs simplement illusoires). Mais ce texte est un appel aux armes, nous n'avons donc pas l'intention d'être objectifs, mais plutôt d'appeler au sens de l'urgence du lecteur.[1].
Légitime :
Semi-légitime :
Ce que aucun des deux camps ci-dessus n'aborde, c'est la formation et l'inférence pour les grands modèles dans des environnements décentralisés. En ce moment, il n'y a aucun moyen de former un modèle fondamental en temps raisonnable sans compter sur des clusters matériels étroitement connectés. Le facteur clé est le "temps raisonnable" compte tenu du niveau de compétition.
Certains recherches prometteusessur le sujet est récemment sorti et, théoriquement, des approches comme Flux de données différentiellespeut être étendu aux réseaux de calcul distribué pour augmenter leur capacité à l'avenir (à mesure que les capacités de mise en réseau rattrapent les exigences de flux de données). Mais la formation de modèles compétitifs nécessite toujours une communication entre des clusters localisés, plutôt que des appareils distribués uniques, et des calculs de pointe (les GPU grand public deviennent de plus en plus non compétitifs).
La recherche sur la localisation (l'une des deux façons de décentraliser) de l'inférence en réduisant la taille du modèle a également étéprogressant récemment, mais il n'existe aucun protocole existant dans Web3 l'exploitant.
Les problèmes liés à la formation et à l'inférence décentralisées nous amènent logiquement au dernier des trois camps et de loin le plus important et donc si émotionnellement déclencheur pour nous ;-)
Faux :
Nous avons besoin d'un ensemble de modèles fondamentaux compétitifs et vraiment décentralisés, et ils nécessitent une formation et une inférence décentralisées pour fonctionner. Perdre l'IA pourrait totalement annuler tous les accomplissements que les “ordinateurs mondiaux décentralisés” ont réalisés depuis l'avènement d'Ethereum. Si les ordinateurs deviennent l'IA et que l'IA est centralisée, il n'y aura pas d'ordinateur mondial à parler, à part une version dystopique de celui-ci.
La formation et l'inférence sont le cœur de l'innovation en IA. Alors que le reste du monde de l'IA se dirige vers des architectures de plus en plus intégrées, Web3 a besoin d'une solution orthogonale pour rivaliser, car la compétition directe devient de moins en moins réalisable très rapidement.
Tout est une question de calcul. Plus vous en lancez à la fois pour l'entraînement et l'inférence, meilleurs sont vos résultats. Oui, il y a des ajustements et des optimisations ici et là et le calcul lui-même n'est pas homogène - il existe maintenant toute une variété de nouvelles approches pour surmonter les goulots d'étranglement de l'architecture traditionnelle de Von Neumann pour les unités de traitement - mais tout se résume à combien de multiplications de matrices vous pouvez faire sur quelle taille de bloc mémoire et à quelle vitesse.
C’est pourquoi nous assistons à une telle expansion sur le front des centres de données par les soi-disant « hyperscalers », qui cherchent tous à créer une pile complète avec une centrale de modèle d’IA au sommet et du matériel qui l’alimente en dessous : OpenAI (modèles) + Microsoft (calcul), Anthropic (modèles) + AWS (calcul), Google (les deux) et Meta (de plus en plus en doublant la construction de leur propre centre de données). Il y a plus de nuances, de dynamiques d’interaction et de parties impliquées, mais nous allons les laisser de côté. Dans l’ensemble, les hyperscalers investissent des milliards de dollars, comme jamais auparavant, dans la construction de centres de données et créent des synergies entre leurs offres de calcul et d’IA, qui devraient générer des rendements massifs à mesure que l’IA prolifère dans l’économie mondiale.
Il suffit de regarder le niveau de construction attendu cette année seulement de la part des 4 entreprises :
Et voici combien a déjà été dépensé pour le matériel NVIDIA AI en 2023 :
Jensen Huang, PDG de NVIDIA, a proposé de verser un total de 1 billion de dollars dans l'accélération de l'IA au cours des prochaines années. Une prédiction qu'il a récemment doubléà 2 billions de dollars, aurait été provoquée par l'intérêt qu'il a constaté de la part des acteurs souverains. Les analystes d'Altimeter prévoient respectivement des dépenses de 160 milliards de dollars et plus de 200 milliards de dollars dans les centres de données liés à l'IA au niveau mondial en '24 et '25.
Maintenant, pour comparer ces chiffres avec ce que Web3 a à offrir aux opérateurs de centres de données indépendants pour les inciter à étendre les dépenses en immobilisations sur le dernier matériel d'IA :
Même si nous prenons cette estimation très approximative divisée par 3 (années) et comparons la valeur en dollars avec l'argent liquide dépensé par les seuls Hyperscalers en 2024, il est clair que d'ajouter des incitations en jetons à un tas de projets de « réseau GPU décentralisé » n'est pas suffisant.
Il faut également des milliards de dollars de demande d'investisseurs pour absorber ces jetons, car les opérateurs de ces réseaux vendent une grande partie des pièces ainsi extraites pour couvrir les coûts importants de Cap- et OpEX. Et quelques milliards de plus pour pousser ces jetons plus haut et stimuler la croissance dans la construction afin de surpasser les Hyperscalers.
Pourtant, quelqu'un ayant une connaissance intime de la façon dont la plupart des serveurs Web3 sont actuellement gérés peut s'attendre à ce qu'une grande partie de l'"infrastructure physique décentralisée" fonctionne en réalité sur les mêmes services cloud des Hyperscalers. Et bien sûr, l'augmentation de la demande en GPU et en autres matériels spécialisés en IA entraîne une offre plus importante, ce qui devrait finalement rendre la location ou l'achat de services cloud beaucoup moins chers. Du moins, c'est ce qui est attendu.
Mais considérez ceci : en ce moment, NVIDIA doit également donner la priorité aux clients pour ses dernières générations de GPU. commencer à rivaliseravec les plus grands fournisseurs de cloud sur leur propre terrain - offrant des services de plateforme IA aux clients d'entreprise déjà verrouillés dans ces Hyperscalers. Cela les incite finalement à construire leurs propres centres de données au fil du temps (ce qui entame essentiellement les marges bénéficiaires grasses dont ils bénéficient actuellement, donc moins probable) ou à limiter considérablement leurs ventes de matériel IA à leur réseau de partenaires fournisseurs cloud.
De plus, les concurrents de NVIDIA qui lancent du matériel supplémentaire spécialisé dans l'IA utilisent principalement les mêmes puces que NVIDIA, produit par TSMC.Donc fondamentalement, toutes les entreprises de matériel informatique AI sont actuellementen compétition pour la capacité de TSMC.TSMC doit également donner la priorité à certains clients par rapport à d'autres. Samsung et potentiellement Intel (qui essaie de revenir à la pointe de la fabrication de puces pour son propre matériel bientôt) pourraient absorber la demande supplémentaire, mais TSMC produit actuellement la majorité des puces liées à l'IA et l'échelle et le calibrage de la fabrication de puces de pointe (3 et 2 nanomètres) prend des années.
En plus de tout cela, toute la fabrication de puces de pointe en ce moment est effectuée près du détroit de Taïwan par TSMC à Taïwan et Samsung en Corée du Sud, où un risque de conflit militaire peut se concrétiser avant que les installations actuellement construites aux États-Unis pour compenser cela (et également pas prévu de produire les puces de nouvelle génération avant quelques années) ne soient lancées.
Et enfin, la Chine, qui est essentiellement coupée du dernier matériel AI de génération en raison des restrictions imposées à NVIDIA et TSMC par les États-Unis, concurrence pour tout calcul restant disponible, tout comme le Réseau DePIn de Web3. Contrairement à Web3, les entreprises chinoises ont en fait leurs propres modèles compétitifs, en particulier les LLMs de par exemple Baidu et Alibaba, qui nécessitent beaucoup des dispositifs de la génération précédente pour fonctionner.
Il existe donc un risque non négligeable que, pour l’une des raisons mentionnées ci-dessus ou la confluence de facteurs, les hyperscalers limitent simplement l’accès à leur matériel d’IA à des parties externes alors que la guerre de domination de l’IA s’intensifie et prend le pas sur les activités de cloud. Fondamentalement, il s’agit d’un scénario dans lequel ils utilisent toute la capacité cloud liée à l’IA pour leur propre usage et ne l’offrent plus à personne d’autre, tout en engloutissant tout le matériel le plus récent. Cela se produit et l’offre de calcul restante est soumise à une demande encore plus élevée de la part d’autres grands acteurs, y compris les États souverains. Pendant ce temps, les GPU grand public sont de moins en moins compétitifs.
De toute évidence, il s'agit d'un scénario extrême, mais le prix est trop important pour que les gros acteurs reculent en cas de maintien des goulots d'étranglement matériels. Cela laisse les opérateurs décentralisés tels que les centres de données de niveau 2 et les propriétaires de matériel de qualité commerciale, qui représentent la majorité des fournisseurs DePIn de Web3, exclus de la compétition.
Pendant que les fondateurs de la crypto dorment au volant, les poids lourds de l'IA surveillent de près la crypto.Pressions gouvernementaleset la concurrence peut les pousser à adopter des cryptomonnaies pour éviter d'être fermées ou fortement réglementées.
Le fondateur de Stability AI récemment démissionnerpour commencer à "décentraliser" son entreprise est l'un des premiers indices publics à ce sujet. Il n'avait auparavant pas caché ses projets de lancer un jeton lors d'apparitions publiques, mais seulement après la réussite de l'IPO de l'entreprise - ce qui révèle un peu les véritables motivations derrière le mouvement anticipé.
Dans le même ordre d'idées, bien que Sam Altman ne soit pas opérationnellement impliqué dans le projet crypto qu'il a cofondé, Worldcoin, son jeton se négocie certainement comme un proxy d'OpenAI. Qu'il y aitchemin pour se connecterle projet de monnaie Internet libre avec le projet de R&D en IA seul le temps nous le dira, mais l'équipe de Worldcoin semble aussireconnaîtreque le marché teste cette hypothèse.
Il nous semble tout à fait logique que les géants de l'IA puissent explorer différentes voies vers la décentralisation. Le problème que nous voyons ici encore est que Web3 n'a pas produit de solutions significatives. Les "jetons de gouvernance" sont principalement un mème, tandis que seuls ceux qui évitent explicitement les liens directs entre les détenteurs d'actifs et le développement et les opérations de leur réseau - $BTC et $ETH - sont vraiment décentralisés pour le moment.
Les mêmes (dés)incitations qui ralentissent le développement technologique affectent également le développement de différentes conceptions de gouvernance des réseaux cryptographiques. Les équipes de start-up se contentent d’apposer un « jeton de gouvernance » sur leur produit dans l’espoir de le comprendre au fur et à mesure qu’elles prennent de l’élan, tout en finissant par s’enraciner dans le « théâtre de la gouvernance » autour de l’allocation des ressources.
La course à l'IA est lancée et tout le monde est très sérieux à ce sujet. Nous ne pouvons pas identifier de faille dans la réflexion des grands acteurs de la technologie lorsqu'il s'agit de mettre à l'échelle leurs calculs à des taux sans précédent - plus de calculs signifie une IA meilleure, une meilleure IA signifie des coûts réduits, l'ajout de nouveaux revenus et l'expansion de la part de marché. Cela signifie pour nous que la bulle est justifiée, mais tous les imposteurs seront quand même évincés dans les inévitables turbulences à venir.
Les grandes entreprises centralisées d'IA dominent le secteur et les start-ups légitimes peinent à suivre. L'espace Web3 a été en retard pour rejoindre la fête mais rejoint également la course. Le marché récompense trop richement les projets d'IA crypto par rapport aux start-ups Web2 dans l'espace, ce qui détourne l'intérêt des fondateurs de la livraison du produit à la pompe du jeton à un moment critique où la fenêtre d'opportunité pour rattraper le retard se referme rapidement. Jusqu'à présent, il n'y a pas eu d'innovation orthogonale ici qui contourne l'expansion du calcul à grande échelle pour concurrencer.
Il existe actuellement un mouvement open source crédible autour des modèles orientés vers les consommateurs, qui a été initialement promu par quelques acteurs centralisés optant pour concurrencer de plus gros rivaux à code source fermé pour la part de marché (par exemple, Meta, Stability AI). Mais maintenant, la communauté rattrape son retard et met la pression sur les principales entreprises d'IA. Ces pressions continueront d'affecter le développement à code source fermé des produits d'IA, mais pas de manière significative tant que le code source ouvert ne sera pas du côté du rattrapage. C'est une autre grande opportunité pour l'espace Web3, mais seulement s'il résout la formation de modèles décentralisée et l'inférence.
Ainsi, bien qu’en surface, des ouvertures « classiques » pour les perturbateurs soient présentes, la réalité ne pourrait pas être plus éloignée de les favoriser. L’IA est principalement liée à l’informatique et rien ne peut être changé à ce sujet en l’absence d’innovations révolutionnaires au cours des 3 à 5 prochaines années, qui sont une période cruciale pour déterminer qui contrôle et dirige le développement de l’IA.
Le marché informatique lui-même, même si la demande stimule les efforts du côté de l'offre, ne peut pas non plus "laisser cent fleurs s'épanouir" avec la concurrence entre les fabricants limitée par des facteurs structurels tels que la fabrication de puces et les économies d'échelle.
Nous restons optimistes quant à l'ingéniosité humaine et sommes certains qu'il y a suffisamment de personnes intelligentes et nobles pour tenter de résoudre le problème de l'IA d'une manière qui favorise le monde libre plutôt que le contrôle corporatif ou gouvernemental. Mais les chances sont très minces et c'est un coup de dés au mieux, mais les fondateurs de Web3 sont trop occupés à lancer la pièce pour un impact financier plutôt que pour un impact réel sur le monde.
Si vous construisez quelque chose de cool pour aider à augmenter les chances de Web3 et que vous ne faites pas que surfer sur la vague de l'engouement, contactez-nous.
Il ne s'agit pas d'un autre article rose sur les VC "IA + Web3". Nous sommes optimistes quant à la fusion de ces deux technologies, mais le texte ci-dessous est un appel aux armes. Sinon, l'optimisme ne sera pas justifié.
Pourquoi ? Parce que le développement et l'exécution des meilleurs modèles d'IA nécessitent des dépenses en capital importantes dans le matériel le plus à la pointe et souvent difficile à obtenir ainsi que dans la R&D très spécifique au domaine. Ajouter des incitations crypto pour externaliser ces tâches, comme le font la plupart des projets d'IA Web3, ne suffit pas à compenser les dizaines de milliards de dollars investis par de grandes entreprises qui contrôlent le développement de l'IA de manière ferme. Compte tenu des contraintes matérielles, il s'agit peut-être du premier grand paradigme logiciel que les ingénieurs intelligents et créatifs en dehors des organisations dominantes n'ont pas les ressources pour perturber.
Le logiciel "mange" le monde de plus en plus rapidement, sur le point de décoller de manière exponentielle avec l'accélération de l'IA. Et tout ce "gâteau", tel que les choses se présentent actuellement, revient aux géants de la technologie - tandis que les utilisateurs finaux, y compris les gouvernements et les grandes entreprises, sans parler des consommateurs, deviennent encore plus dépendants de leur pouvoir.
Tout cela ne pouvait pas se dérouler à un moment plus inapproprié - 90% des participants au web décentralisé occupés à poursuivre l'oie aux œufs d'or des gains faciles en monnaie fiduciaire d'un développement axé sur le récit. Oui, les développeurs suivent les investisseurs de notre industrie et non l'inverse. Cela va de l'admission ouverte à une motivation plus subtile et subconsciente, mais les récits et les marchés qui se forment autour d'eux influencent beaucoup de prises de décision dans le Web3. Les participants sont trop absorbés dans une bulle réflexive classique pour remarquer le monde extérieur, à l'exception des récits qui aident à faire avancer ce cycle davantage. Et l'IA est évidemment le plus grand, car elle connaît également un boom propre.
Nous avons parlé avec des dizaines d'équipes dans l'intersection de l'IA x Crypto et pouvons confirmer que beaucoup d'entre elles sont très capables, orientées vers la mission et passionnées. Mais telle est la nature humaine que lorsque confrontés à des tentations, nous avons tendance à y succomber, puis à rationaliser ces choix postérieurement.
Le chemin facile vers la liquidité a été une malédiction historique de l'industrie de la cryptographie - responsable de ralentir son développement et son adoption utile de plusieurs années à ce stade. Il détourne même les disciples de la cryptographie les plus fidèles vers le "pompage du jeton". La rationalisation est qu'avec plus de capital à portée de main sous forme de jetons, ces constructeurs ont de meilleures chances.
Relatively low sophistication of both institutional and retail capital creates opportunities for builders to make claims detached from reality while still benefiting from valuations as if those claims already came to fruition. The outcome of these processes is an actually entrenched moral hazard and capital destruction, with very few of such strategies working out over the long term. Necessity is the mother of all inventions and when it’s gone, so are the inventions.
Cela ne pouvait pas arriver à un pire moment. Alors que tous les entrepreneurs technologiques les plus intelligents, les acteurs étatiques et les entreprises, grandes et petites, se précipitent pour garantir leur part des avantages découlant de la révolution de l'IA, les fondateurs de cryptomonnaies et les investisseurs optent pour un "quick 10x". Au lieu d'une vie entière de 1000 x, qui est le coût d'opportunité réel ici, à notre avis.
Étant donné les incitations mentionnées ci-dessus, la taxonomie du projet Web3 AI se résume en fait à :
Fondamentalement, nous pensons que les constructeurs savent exactement ce qu'il faut pour rivaliser avec leur concurrence Web2 et les secteurs où il est réellement possible de rivaliser et où c'est plus un rêve irréalisable, mais qui est néanmoins vendable aux VC et au public non averti.
L'objectif est de pouvoir rivaliser ici et maintenant. Sinon, la rapidité du développement de l'IA pourrait laisser Web3 derrière alors que le monde passe au Web4 dystopique de l'IA d'entreprise à l'Ouest contre l'IA d'État de la Chine. Ceux qui ne peuvent pas être compétitifs assez rapidement et qui comptent sur la technologie distribuée pour rattraper sur un horizon temporel plus long sont trop optimistes pour être pris au sérieux.
De toute évidence, il s'agit d'une généralisation très approximative et même le groupe Faker contient au moins quelques équipes sérieuses (et peut-être plus de rêveurs simplement illusoires). Mais ce texte est un appel aux armes, nous n'avons donc pas l'intention d'être objectifs, mais plutôt d'appeler au sens de l'urgence du lecteur.[1].
Légitime :
Semi-légitime :
Ce que aucun des deux camps ci-dessus n'aborde, c'est la formation et l'inférence pour les grands modèles dans des environnements décentralisés. En ce moment, il n'y a aucun moyen de former un modèle fondamental en temps raisonnable sans compter sur des clusters matériels étroitement connectés. Le facteur clé est le "temps raisonnable" compte tenu du niveau de compétition.
Certains recherches prometteusessur le sujet est récemment sorti et, théoriquement, des approches comme Flux de données différentiellespeut être étendu aux réseaux de calcul distribué pour augmenter leur capacité à l'avenir (à mesure que les capacités de mise en réseau rattrapent les exigences de flux de données). Mais la formation de modèles compétitifs nécessite toujours une communication entre des clusters localisés, plutôt que des appareils distribués uniques, et des calculs de pointe (les GPU grand public deviennent de plus en plus non compétitifs).
La recherche sur la localisation (l'une des deux façons de décentraliser) de l'inférence en réduisant la taille du modèle a également étéprogressant récemment, mais il n'existe aucun protocole existant dans Web3 l'exploitant.
Les problèmes liés à la formation et à l'inférence décentralisées nous amènent logiquement au dernier des trois camps et de loin le plus important et donc si émotionnellement déclencheur pour nous ;-)
Faux :
Nous avons besoin d'un ensemble de modèles fondamentaux compétitifs et vraiment décentralisés, et ils nécessitent une formation et une inférence décentralisées pour fonctionner. Perdre l'IA pourrait totalement annuler tous les accomplissements que les “ordinateurs mondiaux décentralisés” ont réalisés depuis l'avènement d'Ethereum. Si les ordinateurs deviennent l'IA et que l'IA est centralisée, il n'y aura pas d'ordinateur mondial à parler, à part une version dystopique de celui-ci.
La formation et l'inférence sont le cœur de l'innovation en IA. Alors que le reste du monde de l'IA se dirige vers des architectures de plus en plus intégrées, Web3 a besoin d'une solution orthogonale pour rivaliser, car la compétition directe devient de moins en moins réalisable très rapidement.
Tout est une question de calcul. Plus vous en lancez à la fois pour l'entraînement et l'inférence, meilleurs sont vos résultats. Oui, il y a des ajustements et des optimisations ici et là et le calcul lui-même n'est pas homogène - il existe maintenant toute une variété de nouvelles approches pour surmonter les goulots d'étranglement de l'architecture traditionnelle de Von Neumann pour les unités de traitement - mais tout se résume à combien de multiplications de matrices vous pouvez faire sur quelle taille de bloc mémoire et à quelle vitesse.
C’est pourquoi nous assistons à une telle expansion sur le front des centres de données par les soi-disant « hyperscalers », qui cherchent tous à créer une pile complète avec une centrale de modèle d’IA au sommet et du matériel qui l’alimente en dessous : OpenAI (modèles) + Microsoft (calcul), Anthropic (modèles) + AWS (calcul), Google (les deux) et Meta (de plus en plus en doublant la construction de leur propre centre de données). Il y a plus de nuances, de dynamiques d’interaction et de parties impliquées, mais nous allons les laisser de côté. Dans l’ensemble, les hyperscalers investissent des milliards de dollars, comme jamais auparavant, dans la construction de centres de données et créent des synergies entre leurs offres de calcul et d’IA, qui devraient générer des rendements massifs à mesure que l’IA prolifère dans l’économie mondiale.
Il suffit de regarder le niveau de construction attendu cette année seulement de la part des 4 entreprises :
Et voici combien a déjà été dépensé pour le matériel NVIDIA AI en 2023 :
Jensen Huang, PDG de NVIDIA, a proposé de verser un total de 1 billion de dollars dans l'accélération de l'IA au cours des prochaines années. Une prédiction qu'il a récemment doubléà 2 billions de dollars, aurait été provoquée par l'intérêt qu'il a constaté de la part des acteurs souverains. Les analystes d'Altimeter prévoient respectivement des dépenses de 160 milliards de dollars et plus de 200 milliards de dollars dans les centres de données liés à l'IA au niveau mondial en '24 et '25.
Maintenant, pour comparer ces chiffres avec ce que Web3 a à offrir aux opérateurs de centres de données indépendants pour les inciter à étendre les dépenses en immobilisations sur le dernier matériel d'IA :
Même si nous prenons cette estimation très approximative divisée par 3 (années) et comparons la valeur en dollars avec l'argent liquide dépensé par les seuls Hyperscalers en 2024, il est clair que d'ajouter des incitations en jetons à un tas de projets de « réseau GPU décentralisé » n'est pas suffisant.
Il faut également des milliards de dollars de demande d'investisseurs pour absorber ces jetons, car les opérateurs de ces réseaux vendent une grande partie des pièces ainsi extraites pour couvrir les coûts importants de Cap- et OpEX. Et quelques milliards de plus pour pousser ces jetons plus haut et stimuler la croissance dans la construction afin de surpasser les Hyperscalers.
Pourtant, quelqu'un ayant une connaissance intime de la façon dont la plupart des serveurs Web3 sont actuellement gérés peut s'attendre à ce qu'une grande partie de l'"infrastructure physique décentralisée" fonctionne en réalité sur les mêmes services cloud des Hyperscalers. Et bien sûr, l'augmentation de la demande en GPU et en autres matériels spécialisés en IA entraîne une offre plus importante, ce qui devrait finalement rendre la location ou l'achat de services cloud beaucoup moins chers. Du moins, c'est ce qui est attendu.
Mais considérez ceci : en ce moment, NVIDIA doit également donner la priorité aux clients pour ses dernières générations de GPU. commencer à rivaliseravec les plus grands fournisseurs de cloud sur leur propre terrain - offrant des services de plateforme IA aux clients d'entreprise déjà verrouillés dans ces Hyperscalers. Cela les incite finalement à construire leurs propres centres de données au fil du temps (ce qui entame essentiellement les marges bénéficiaires grasses dont ils bénéficient actuellement, donc moins probable) ou à limiter considérablement leurs ventes de matériel IA à leur réseau de partenaires fournisseurs cloud.
De plus, les concurrents de NVIDIA qui lancent du matériel supplémentaire spécialisé dans l'IA utilisent principalement les mêmes puces que NVIDIA, produit par TSMC.Donc fondamentalement, toutes les entreprises de matériel informatique AI sont actuellementen compétition pour la capacité de TSMC.TSMC doit également donner la priorité à certains clients par rapport à d'autres. Samsung et potentiellement Intel (qui essaie de revenir à la pointe de la fabrication de puces pour son propre matériel bientôt) pourraient absorber la demande supplémentaire, mais TSMC produit actuellement la majorité des puces liées à l'IA et l'échelle et le calibrage de la fabrication de puces de pointe (3 et 2 nanomètres) prend des années.
En plus de tout cela, toute la fabrication de puces de pointe en ce moment est effectuée près du détroit de Taïwan par TSMC à Taïwan et Samsung en Corée du Sud, où un risque de conflit militaire peut se concrétiser avant que les installations actuellement construites aux États-Unis pour compenser cela (et également pas prévu de produire les puces de nouvelle génération avant quelques années) ne soient lancées.
Et enfin, la Chine, qui est essentiellement coupée du dernier matériel AI de génération en raison des restrictions imposées à NVIDIA et TSMC par les États-Unis, concurrence pour tout calcul restant disponible, tout comme le Réseau DePIn de Web3. Contrairement à Web3, les entreprises chinoises ont en fait leurs propres modèles compétitifs, en particulier les LLMs de par exemple Baidu et Alibaba, qui nécessitent beaucoup des dispositifs de la génération précédente pour fonctionner.
Il existe donc un risque non négligeable que, pour l’une des raisons mentionnées ci-dessus ou la confluence de facteurs, les hyperscalers limitent simplement l’accès à leur matériel d’IA à des parties externes alors que la guerre de domination de l’IA s’intensifie et prend le pas sur les activités de cloud. Fondamentalement, il s’agit d’un scénario dans lequel ils utilisent toute la capacité cloud liée à l’IA pour leur propre usage et ne l’offrent plus à personne d’autre, tout en engloutissant tout le matériel le plus récent. Cela se produit et l’offre de calcul restante est soumise à une demande encore plus élevée de la part d’autres grands acteurs, y compris les États souverains. Pendant ce temps, les GPU grand public sont de moins en moins compétitifs.
De toute évidence, il s'agit d'un scénario extrême, mais le prix est trop important pour que les gros acteurs reculent en cas de maintien des goulots d'étranglement matériels. Cela laisse les opérateurs décentralisés tels que les centres de données de niveau 2 et les propriétaires de matériel de qualité commerciale, qui représentent la majorité des fournisseurs DePIn de Web3, exclus de la compétition.
Pendant que les fondateurs de la crypto dorment au volant, les poids lourds de l'IA surveillent de près la crypto.Pressions gouvernementaleset la concurrence peut les pousser à adopter des cryptomonnaies pour éviter d'être fermées ou fortement réglementées.
Le fondateur de Stability AI récemment démissionnerpour commencer à "décentraliser" son entreprise est l'un des premiers indices publics à ce sujet. Il n'avait auparavant pas caché ses projets de lancer un jeton lors d'apparitions publiques, mais seulement après la réussite de l'IPO de l'entreprise - ce qui révèle un peu les véritables motivations derrière le mouvement anticipé.
Dans le même ordre d'idées, bien que Sam Altman ne soit pas opérationnellement impliqué dans le projet crypto qu'il a cofondé, Worldcoin, son jeton se négocie certainement comme un proxy d'OpenAI. Qu'il y aitchemin pour se connecterle projet de monnaie Internet libre avec le projet de R&D en IA seul le temps nous le dira, mais l'équipe de Worldcoin semble aussireconnaîtreque le marché teste cette hypothèse.
Il nous semble tout à fait logique que les géants de l'IA puissent explorer différentes voies vers la décentralisation. Le problème que nous voyons ici encore est que Web3 n'a pas produit de solutions significatives. Les "jetons de gouvernance" sont principalement un mème, tandis que seuls ceux qui évitent explicitement les liens directs entre les détenteurs d'actifs et le développement et les opérations de leur réseau - $BTC et $ETH - sont vraiment décentralisés pour le moment.
Les mêmes (dés)incitations qui ralentissent le développement technologique affectent également le développement de différentes conceptions de gouvernance des réseaux cryptographiques. Les équipes de start-up se contentent d’apposer un « jeton de gouvernance » sur leur produit dans l’espoir de le comprendre au fur et à mesure qu’elles prennent de l’élan, tout en finissant par s’enraciner dans le « théâtre de la gouvernance » autour de l’allocation des ressources.
La course à l'IA est lancée et tout le monde est très sérieux à ce sujet. Nous ne pouvons pas identifier de faille dans la réflexion des grands acteurs de la technologie lorsqu'il s'agit de mettre à l'échelle leurs calculs à des taux sans précédent - plus de calculs signifie une IA meilleure, une meilleure IA signifie des coûts réduits, l'ajout de nouveaux revenus et l'expansion de la part de marché. Cela signifie pour nous que la bulle est justifiée, mais tous les imposteurs seront quand même évincés dans les inévitables turbulences à venir.
Les grandes entreprises centralisées d'IA dominent le secteur et les start-ups légitimes peinent à suivre. L'espace Web3 a été en retard pour rejoindre la fête mais rejoint également la course. Le marché récompense trop richement les projets d'IA crypto par rapport aux start-ups Web2 dans l'espace, ce qui détourne l'intérêt des fondateurs de la livraison du produit à la pompe du jeton à un moment critique où la fenêtre d'opportunité pour rattraper le retard se referme rapidement. Jusqu'à présent, il n'y a pas eu d'innovation orthogonale ici qui contourne l'expansion du calcul à grande échelle pour concurrencer.
Il existe actuellement un mouvement open source crédible autour des modèles orientés vers les consommateurs, qui a été initialement promu par quelques acteurs centralisés optant pour concurrencer de plus gros rivaux à code source fermé pour la part de marché (par exemple, Meta, Stability AI). Mais maintenant, la communauté rattrape son retard et met la pression sur les principales entreprises d'IA. Ces pressions continueront d'affecter le développement à code source fermé des produits d'IA, mais pas de manière significative tant que le code source ouvert ne sera pas du côté du rattrapage. C'est une autre grande opportunité pour l'espace Web3, mais seulement s'il résout la formation de modèles décentralisée et l'inférence.
Ainsi, bien qu’en surface, des ouvertures « classiques » pour les perturbateurs soient présentes, la réalité ne pourrait pas être plus éloignée de les favoriser. L’IA est principalement liée à l’informatique et rien ne peut être changé à ce sujet en l’absence d’innovations révolutionnaires au cours des 3 à 5 prochaines années, qui sont une période cruciale pour déterminer qui contrôle et dirige le développement de l’IA.
Le marché informatique lui-même, même si la demande stimule les efforts du côté de l'offre, ne peut pas non plus "laisser cent fleurs s'épanouir" avec la concurrence entre les fabricants limitée par des facteurs structurels tels que la fabrication de puces et les économies d'échelle.
Nous restons optimistes quant à l'ingéniosité humaine et sommes certains qu'il y a suffisamment de personnes intelligentes et nobles pour tenter de résoudre le problème de l'IA d'une manière qui favorise le monde libre plutôt que le contrôle corporatif ou gouvernemental. Mais les chances sont très minces et c'est un coup de dés au mieux, mais les fondateurs de Web3 sont trop occupés à lancer la pièce pour un impact financier plutôt que pour un impact réel sur le monde.
Si vous construisez quelque chose de cool pour aider à augmenter les chances de Web3 et que vous ne faites pas que surfer sur la vague de l'engouement, contactez-nous.