IO.NET : Une plongée profonde dans la convergence de l'IA et de Web3

Débutant4/23/2024, 10:44:52 AM
L'article approfondit la nécessité commerciale de combiner l'IA avec Web3, en mettant l'accent sur l'importance et les défis des services de puissance de calcul distribuée. Il accorde une attention particulière au projet IO.NET, une plateforme de puissance de calcul distribuée en IA, visant à inciter à la convergence de la puissance de calcul en IA grâce à un modèle de jetons, offrant des services de calcul en IA flexibles, rapides et peu coûteux. L'article analyse la logique du produit, l'expérience de l'équipe et la situation de financement de IO.NET, et prévoit également sa valeur marchande potentielle. De plus, l'article discute de la tendance de développement du marché de la puissance de calcul distribuée et des facteurs d'influence possibles.

Republier le titre original: Un nouveau projet AI + DePIN basé sur Solana: Une brève analyse du prochain lancement de jetons IO.NET

Introduction

Dansnotre dernier rapport, nous avons mentionné que par rapport aux deux cycles précédents, la hausse actuelle des cryptomonnaies se passe des nouveaux modèles commerciaux et des récits d'actifs. L'intelligence artificielle (IA) est l'un des récits novateurs dans l'espace Web3 de ce cycle. Cet article se penche sur le projet d'IA en vogue de l'année, IO.NET, et organise les réflexions autour des deux questions suivantes :

  • La nécessité de l'IA+Web3 dans le paysage commercial
  • La nécessité et les défis du déploiement d'un réseau informatique décentralisé

Deuxièmement, je vais organiser les informations clés sur le projet représentatif dans le réseau informatique AI décentralisé : IO.NET, y compris la conception du produit, le paysage concurrentiel et l'arrière-plan du projet. Je vais également spéculer sur les indicateurs de valorisation du projet.

Les informations sur La logique commerciale derrière la convergence de l'IA et de Web3la pièce s'inspire de "Gate"La Fusion Réellepar Michael Rinko, analyste de recherche chez Delphi Delphi. Cette analyse assimile et référence des idées de son travail, il est fortement recommandé au lecteur de lire l'article original.

Veuillez noter que cet article reflète ma réflexion actuelle et peut évoluer. Les opinions exprimées ici sont subjectives et il peut y avoir des erreurs dans les faits, les données et le raisonnement logique. Il ne s'agit pas de conseils financiers, mais les retours et les discussions sont les bienvenus.

Ce qui suit est le texte principal.

1. La logique commerciale derrière la convergence de l'IA et du Web3

1.1 2023: L'“Annus Mirabilis” pour l'IA

En réfléchissant sur les annales du développement humain, il est clair que les percées technologiques catalysent des transformations profondes - de la vie quotidienne aux paysages industriels et à la marche de la civilisation elle-même.

Dans l'histoire de l'humanité, il y a deux années significatives, à savoir 1666 et 1905, qui sont maintenant célébrées comme l'« Annus Mirabilis » dans l'histoire de la science.

L'année 1666 a mérité son titre en raison de la cascade de percées scientifiques d'Isaac Newton. En une seule année, il a été le pionnier de la branche de la physique connue sous le nom d'optique, a fondé la discipline mathématique du calcul infinitésimal et a dérivé la loi de la gravitation, qui est une loi fondamentale de la science naturelle moderne. Chacune de ces contributions a été fondamentale pour le développement scientifique de l'humanité au cours du siècle suivant, accélérant significativement le progrès global de la science.

L'autre année phare est 1905, quand un jeune Einstein de seulement 26 ans a publié quatre articles coup sur coup dans «Annalen der Physik», couvrant l'effet photoélectrique, posant les bases de la mécanique quantique; le mouvement brownien, fournissant un cadre essentiel pour l'analyse des processus stochastiques; la théorie de la relativité restreinte; et l'équivalence masse-énergie, encapsulée dans l'équation E=MC^2. Avec le recul, chacun de ces articles est considéré comme dépassant le niveau moyen du travail récompensé par un prix Nobel en physique, une distinction qu'Einstein lui-même a reçue pour son travail sur l'effet photoélectrique. Ces contributions ont collectivement propulsé l'humanité de plusieurs pas en avant dans le voyage de la civilisation.

L'année 2023, récemment derrière nous, est sur le point d'être célébrée comme une autre « Année Miracle », en grande partie grâce à l'émergence de ChatGPT.

Considérer 2023 comme une « Année Miracle » dans l'histoire de la technologie humaine ne consiste pas seulement à reconnaître les progrès réalisés dans le traitement et la génération de langage naturel par ChatGPT. C'est aussi reconnaître un schéma clair dans l'avancement des grands modèles de langage - la réalisation qu'en étendant les paramètres du modèle et les ensembles de données d'entraînement, nous pouvons obtenir des améliorations exponentielles des performances du modèle. De plus, cela semble illimité à court terme, en supposant que la puissance de calcul reste à la hauteur.

Cette capacité va bien au-delà de la compréhension du langage et de la génération de conversations; elle peut être largement appliquée dans divers domaines scientifiques. Prenons l'exemple de l'application de grands modèles linguistiques dans le secteur biologique:

  • En 2018, la lauréate du prix Nobel de chimie, Frances Arnold, a déclaré lors de sa cérémonie de remise des prix : "Aujourd'hui, nous pouvons, pour ainsi dire, lire, écrire et éditer n'importe quelle séquence d'ADN, mais nous ne pouvons pas la composer." En avançant rapidement de cinq ans jusqu'en 2023, une équipe de chercheurs de l'Université Stanford et de Salesforce Research, une start-up axée sur l'IA, a publié un article dans "Nature Biotechnology". En utilisant un grand modèle linguistique raffiné à partir de GPT-3, ils ont généré un tout nouveau catalogue de 1 million de protéines. Parmi celles-ci, ils ont découvert deux protéines ayant des structures distinctes, toutes deux dotées d'une fonction antibactérienne, ouvrant potentiellement la voie à de nouvelles stratégies de résistance bactérienne au-delà des antibiotiques traditionnels. Cela signifie un saut monumental dans le dépassement des obstacles de la création de protéines avec l'aide de l'IA.
  • Avant cela, l'algorithme d'intelligence artificielle AlphaFold a prédit les structures de près de 2,14 milliards de types de protéines sur Terre en 18 mois, un jalon qui amplifie les réalisations des biologistes structuraux tout au long de l'histoire de plusieurs ordres de grandeur.

L'intégration de modèles d'IA promet de transformer radicalement les industries. Des domaines de haute technologie de la biotechnologie, des sciences des matériaux et de la découverte de médicaments aux sphères culturelles du droit et des arts, une vague transformative est sur le point de remodeler ces domaines, 2023 marquant le début de tout cela.

Il est largement reconnu que le siècle dernier a vu une augmentation exponentielle de la capacité de l'humanité à générer de la richesse. La rapide avancée des technologies d'IA devrait accélérer ce processus.

Tendance mondiale du PIB total, Source de données : Groupe de la Banque mondiale

1.2 Fusion de l'IA et de la Crypto

Pour saisir le besoin inhérent de fusion entre l'IA et la crypto, il est instructif de regarder comment leurs caractéristiques distinctes se complètent mutuellement.

La symbiose des fonctionnalités AI et Crypto

L'IA se distingue par trois qualités principales:

  • Stochasticité : l'IA est stochastique, avec son mécanisme de production de contenu étant une boîte noire difficile à reproduire et énigmatique, rendant ses sorties intrinsèquement stochastiques.
  • Ressources Intensives: L'IA est une industrie intensive en ressources, nécessitant des quantités importantes d'énergie, de puces et de puissance de calcul.
  • Intelligence semblable à celle humaine : l'IA est (bientôt) capable de passer le test de Turing, rendant de plus en plus difficile de distinguer entre les humains et l'IA.*

_※_ Le 30 octobre 2023, des chercheurs de l'Université de Californie à San Diego ont dévoilé les scores du test de Turing pour GPT-3.5 et GPT-4.0. Ce dernier a obtenu un score de 41 %, manquant de justesse la note de passage de 50 %, les humains obtenant 63 % au même test. L'essence de ce test de Turing réside dans le nombre de participants percevant leur interlocuteur comme étant humain. Un score supérieur à 50 % indique que la majorité croit interagir avec un humain, et non avec une machine, considérant ainsi que l'IA a réussi le test de Turing car au moins la moitié des personnes n'ont pas pu la distinguer d'un humain.

Alors que l'IA ouvre la voie à des avancées révolutionnaires en matière de productivité humaine, elle introduit simultanément des défis profonds à notre société, notamment :

  • Comment vérifier et contrôler la stochasticité de l'IA, en faire un avantage plutôt qu'un défaut
  • Comment combler les vastes besoins en énergie et en puissance de calcul que l'IA exige
  • Comment faire la distinction entre les humains et l’IA

La technologie crypto et blockchain pourrait offrir la solution idéale aux défis posés par l'IA, caractérisée par trois attributs clés :

  • Déterminisme : Les opérations sont basées sur la blockchain, le code et les contrats intelligents, avec des règles et des limites claires. Les entrées conduisent à des sorties prévisibles, garantissant un haut niveau de déterminisme.
  • Allocation efficace des ressources : L'économie crypto a favorisé un marché vaste, mondial et libre, permettant une tarification, une collecte de fonds et un transfert rapides des ressources. La présence de jetons accélère encore l'alignement de l'offre et de la demande sur le marché, atteignant rapidement une masse critique grâce à l'incitation.
  • Absence de confiance : Avec des registres publics et un code source ouvert, n'importe qui peut facilement vérifier les opérations, créant ainsi un système "sans confiance". De plus, la technologie de connaissance nulle (ZK) garantit davantage que la confidentialité est maintenue pendant ces processus de vérification.

Pour démontrer la complémentarité entre l'IA et l'économie crypto, plongeons-nous dans trois exemples.

Exemple A: Surmonter la Stochasticité avec des Agents d'IA Alimentés par l'Économie Crypto

Les agents d'IA sont des programmes intelligents conçus pour effectuer des tâches au nom des humains selon leurs directives, Fetch.AI étant un exemple notable dans ce domaine. Imaginez que nous confions à notre agent d'IA l'exécution d'une opération financière, telle que « investir 1000 $ en BTC ». L'agent d'IA pourrait rencontrer deux scénarios distincts :

Scénario 1 : L'agent est tenu d'interagir avec des entités financières traditionnelles (par ex. BlackRock) pour acheter des ETF BTC, rencontrant de nombreux problèmes de compatibilité avec des organisations centralisées, y compris les procédures KYC, la vérification des documents, les processus de connexion et l'authentification de l'identité, tous particulièrement contraignants à l'heure actuelle.

Scénario 2 : Lorsqu'on opère au sein de l'économie cryptographique native, le processus devient simplifié. L'agent pourrait directement effectuer la transaction via Uniswap ou un agrégateur de trading similaire, en utilisant votre compte pour vous connecter et confirmer la commande, et acquérir par la suite du WBTC ou d'autres variantes de BTC enveloppé. Cette procédure est efficace et rationalisée. Fondamentalement, c'est la fonction actuellement assurée par divers Trading Bots, agissant comme des agents IA de base avec un accent sur les activités de trading. Avec le développement et l'intégration ultérieurs de l'IA, ces bots atteindront des objectifs de trading plus complexes. Par exemple, ils pourraient surveiller 100 adresses de smart money sur la blockchain, évaluer leurs stratégies de trading et leurs taux de réussite, allouer 10 % de leurs fonds pour copier leurs transactions sur une semaine, suspendre les opérations si les rendements sont défavorables et déduire les raisons potentielles de ces stratégies.

L'IA prospère au sein des systèmes blockchain, fondamentalement parce que les règles de l'économie crypto sont explicitement définies, et le système permet la permissionlessness. Le fait d'opérer selon des directives claires réduit considérablement les risques liés à la stochasticité inhérente de l'IA. Par exemple, la domination de l'IA sur les humains aux échecs et aux jeux vidéo découle du fait que ces environnements sont des boîtes fermées avec des règles simples. En revanche, les progrès dans la conduite autonome ont été plus progressifs. Les défis du monde ouvert sont plus complexes, et notre tolérance à la résolution de problèmes imprévisible de l'IA dans de tels scénarios est nettement plus basse.

Exemple B: Consolidation des ressources via des incitations en jetons

Le redoutable réseau mondial de hachage soutenant le BTC, avec un taux total actuel de hachage de 576,70 EH/s, dépasse la puissance de calcul cumulée de tous les supercalculateurs du monde. Cette croissance est propulsée par des incitations simples et équitables au sein du réseau.

Tendance du taux de hashrate BTC, source: https://www.coinwarz.com/

De plus, les projets DePIN comme Mobile explorent les incitatifs token pour cultiver un marché à la fois du côté de l'offre et de la demande afin de favoriser les effets de réseau. L'accent à venir de cet article, IO.NET, est une plateforme conçue pour agréger la puissance de calcul de l'IA, espérant débloquer le potentiel latent de la puissance de calcul de l'IA grâce à un modèle token.

Exemple C: Tirer parti de l'open source et de la preuve ZK pour différencier les humains de l'IA tout en protégeant la vie privée

Worldcoin, un projet Web3 co-fondé par Sam Altman d'OpenAI, utilise une approche novatrice de la vérification d'identité. En utilisant un appareil matériel appelé Orb, il exploite la biométrie de l'iris humain pour produire des valeurs de hachage uniques et anonymes via la technologie Zero-Knowledge (ZK), différenciant ainsi les humains de l'IA. Au début de mars 2024, le projet artistique Web3 Drip a commencé à mettre en œuvre l'identifiant Worldcoin pour authentifier de vrais humains et allouer des récompenses.

Worldcoin a récemment rendu open-source son matériel iris, Orb, garantissant la sécurité et la confidentialité des données biométriques.

Dans l'ensemble, en raison du déterminisme du code et de la cryptographie, de la circulation des ressources et des avantages du financement apportés par des mécanismes sans autorisation et basés sur des jetons, ainsi que de la nature sans confiance basée sur le code source ouvert et les registres publics, l'économie crypto est devenue une solution potentielle significative aux défis auxquels la société humaine est confrontée avec l'IA.

Le défi le plus immédiat et commercialement exigeant est la soif extrême de ressources computationnelles requise par les produits d'IA, principalement entraînée par un besoin substantiel de puces et de puissance de calcul.

C'est également la principale raison pour laquelle les projets de puissance de calcul distribuée ont conduit les gains au cours de ce cycle de marché haussier dans le secteur global de l'IA.

L'impératif commercial pour l'informatique décentralisée

L'IA nécessite des ressources informatiques substantielles, nécessaires à la fois pour la formation des modèles et les tâches d'inférence.

Il a été largement documenté dans la formation des grands modèles linguistiques que, une fois l'ampleur des paramètres de données est importante, ces modèles commencent à présenter des capacités sans précédent. Les améliorations exponentielles observées d'une génération ChatGPT à la suivante sont entraînées par une croissance exponentielle des besoins en calcul pour la formation du modèle.

Des recherches de DeepMind et de l'Université Stanford indiquent que, selon divers grands modèles linguistiques, lorsqu'ils traitent différentes tâches - que ce soit le calcul, la réponse à des questions en persan ou la compréhension du langage naturel - les modèles ne font qu'approximer une supposition aléatoire, sauf si la formation implique des paramètres de modèle considérablement augmentés (et par extension, des charges computationnelles). Les performances de n'importe quelle tâche restent presque aléatoires jusqu'à ce que les efforts computationnels atteignent 10^22 FLOPS. Au-delà de ce seuil critique, les performances des tâches s'améliorent de manière spectaculaire pour n'importe quel modèle linguistique.

Source: Capacités émergentes des grands modèles de langage

Source: Capacités émergentes des grands modèles de langage

Le principe de "réaliser des miracles avec beaucoup d'efforts" en puissance de calcul, à la fois en théorie et vérifié en pratique, a inspiré le fondateur d'OpenAI, Sam Altman, à proposer un plan ambitieux pour lever 7 billions de dollars. Ce fonds est destiné à établir une usine de puces qui dépasserait les capacités actuelles de TSMC de dix fois (estimé à 1,5 billion de dollars), le reste des fonds étant alloué à la production de puces et à la formation de modèles.

Outre les exigences en calcul liées à la formation des modèles d'IA, les processus d'inférence nécessitent également une puissance de calcul considérable, bien que moins importante que la formation. Ce besoin continu en puces et en ressources informatiques est devenu une réalité standard pour les acteurs du domaine de l'IA.

Contrairement aux fournisseurs centralisés de calcul d'IA tels qu'Amazon Web Services, Google Cloud Platform et Azure de Microsoft, le calcul d'IA décentralisé offre plusieurs propositions de valeur convaincantes :

  • Accessibilité : Accéder aux puces informatiques via des services comme AWS, GCP ou Azure nécessite généralement des semaines, et les modèles de GPU les plus populaires sont souvent en rupture de stock. De plus, les consommateurs sont généralement liés par de longs contrats rigides avec ces grandes entreprises. En revanche, les plateformes informatiques distribuées offrent des options matérielles flexibles avec une accessibilité accrue.
  • Efficacité des coûts : En tirant parti des puces inactives et en intégrant des subventions en jetons des protocoles réseau pour les fournisseurs de puces et de puissance de calcul, les réseaux informatiques décentralisés peuvent offrir une puissance de calcul à des coûts réduits.
  • Résistance à la censure : L'approvisionnement en puces de pointe est actuellement dominé par les grandes entreprises technologiques, et avec le gouvernement des États-Unis intensifiant son examen des services informatiques basés sur l'IA, la capacité d'obtenir de la puissance de calcul de manière décentralisée, flexible et sans restriction devient de plus en plus une nécessité évidente. C'est une proposition de valeur fondamentale des plateformes informatiques basées sur le web3.

Si les combustibles fossiles ont été le sang de la révolution industrielle, la puissance de calcul pourrait bien être le sang de la nouvelle ère numérique inaugurée par l'IA, faisant de l'approvisionnement en puissance de calcul une infrastructure pour l'ère de l'IA. De la même manière que les stablecoins ont émergé comme un dérivé vigoureux de la monnaie fiduciaire dans l'époque Web3, le marché de l'informatique distribuée pourrait-il évoluer en un segment florissant au sein du marché en pleine expansion de l'informatique de l'IA ?

Il s'agit toujours d'un marché émergent, et beaucoup reste à voir. Cependant, plusieurs facteurs pourraient potentiellement influencer le récit ou l'adoption du marché de l'informatique décentralisée :

  • Défis persistants d'approvisionnement en GPU : Les contraintes d'approvisionnement en cours pour les GPU pourraient encourager les développeurs à explorer des plates-formes informatiques décentralisées.
  • Expansion réglementaire : Accéder aux services de calcul AI des principales plateformes cloud implique des processus KYC approfondis et un examen minutieux. Cela pourrait conduire à une adoption plus importante des plateformes de calcul décentralisées, notamment dans les régions confrontées à des restrictions ou des sanctions.
  • Incitations au prix des jetons : Les augmentations des prix des jetons pendant les marchés haussiers pourraient améliorer la valeur des subventions offertes aux fournisseurs de GPU par les plates-formes, attirant ainsi plus de vendeurs sur le marché, augmentant son ampleur et réduisant les coûts pour les consommateurs.

En même temps, les défis auxquels sont confrontées les plateformes de calcul décentralisé sont également assez évidents :

Défis techniques et d'ingénierie

  • Problèmes de preuve de travail: Les calculs dans les modèles d'apprentissage profond, en raison de la structure hiérarchique où la sortie de chaque couche est utilisée comme entrée pour la suivante, vérifier la validité des calculs nécessite d'exécuter tout le travail antérieur, ce qui n'est ni simple ni efficace. Pour relever ce défi, les plates-formes informatiques décentralisées doivent soit développer de nouveaux algorithmes, soit utiliser des techniques de vérification approximative offrant une garantie probabiliste des résultats, plutôt qu'un déterminisme absolu.
  • Défis de la parallélisation : Les plateformes informatiques décentralisées font appel à une gamme diversifiée de fournisseurs de puces, chacun offrant généralement une puissance de calcul limitée. Il est presque impossible de terminer les tâches d'entraînement ou d'inférence d'un modèle d'IA par un seul fournisseur de puces rapidement. Par conséquent, les tâches doivent être décomposées et distribuées en utilisant la parallélisation pour raccourcir le temps total de réalisation. Cependant, cette approche introduit plusieurs complications, notamment la manière dont les tâches sont décomposées (en particulier les tâches complexes d'apprentissage profond), les dépendances des données et les coûts supplémentaires de connectivité entre les appareils.
  • Problèmes de protection de la vie privée : Comment peut-on s'assurer que les données et les modèles du client ne sont pas divulgués au destinataire des tâches ?

Défis de conformité réglementaire

  • Les plateformes de calcul décentralisé, en raison de leur nature sans autorisation sur les marchés de l'offre et de la demande, peuvent attirer certains clients en tant que point de vente clé. Cependant, à mesure que les cadres réglementaires de l'IA évoluent, ces plateformes pourraient de plus en plus devenir des cibles de surveillance gouvernementale. De plus, certains fournisseurs de GPU s'inquiètent de savoir si leurs ressources informatiques louées sont utilisées par des entreprises ou des particuliers sanctionnés.

En résumé, les principaux utilisateurs des plateformes informatiques décentralisées sont principalement des développeurs professionnels ou des petites et moyennes entreprises. Contrairement aux investisseurs en cryptomonnaie et en NFT, ces clients privilégient la stabilité et la continuité des services fournis par les plateformes, et le prix n'est pas nécessairement leur principale préoccupation. Les plateformes informatiques décentralisées ont un long chemin à parcourir avant de pouvoir gagner une acceptation généralisée de cette base d'utilisateurs exigeante.

Ensuite, nous plongerons dans les détails et réaliserons une analyse d'IO.NET, un nouveau projet de puissance de calcul décentralisée dans ce cycle. Nous le comparerons également à des projets similaires pour estimer sa valorisation potentielle sur le marché après son lancement.

2. Plateforme de calcul AI décentralisée : IO.NET

2.1 Aperçu du projet

IO.NET est un réseau informatique décentralisé qui a établi un marché à deux faces autour des puces. Du côté de l'offre, il existe des puissances de calcul distribuées à l'échelle mondiale, principalement des GPU, mais aussi des CPU et des GPU intégrés d'Apple (iGPU). Le côté demande se compose d'ingénieurs en IA cherchant à accomplir des tâches de formation ou d'inférence de modèles d'IA.

Le site officiel de IO.NET déclare leur vision :

Notre mission

Assemblage d'un million de GPU dans un DePIN - réseau d'infrastructure physique décentralisée.

Sa mission est d'intégrer des millions de GPU dans son réseau DePIN.

Comparé aux services traditionnels de calcul AI en nuage, cette plateforme met en avant plusieurs avantages clés :

  • Configuration flexible : les ingénieurs en IA ont la liberté de sélectionner et d'assembler les puces nécessaires dans un "cluster" adapté à leurs tâches informatiques spécifiques.
  • Déploiement rapide : Contrairement aux délais d'approbation et d'attente prolongés associés aux fournisseurs centralisés tels que AWS, le déploiement sur cette plateforme peut être complété en quelques secondes seulement, permettant ainsi le commencement immédiat des tâches.
  • Efficacité des coûts: Les coûts de service sont jusqu'à 90% inférieurs à ceux proposés par les fournisseurs traditionnels.

De plus, IO.NET prévoit de lancer des services supplémentaires à l'avenir, tels qu'une boutique de modèles d'IA.

2.2 Mécanisme du produit et indicateurs commerciaux

Mécanismes de produit et expérience de déploiement

Similaire aux principales plateformes telles qu'Amazon Cloud, Google Cloud et Alibaba Cloud, IO.NET propose un service informatique appelé IO Cloud. Ce service fonctionne via un réseau distribué et décentralisé de puces qui prend en charge l'exécution de code d'apprentissage automatique basé sur Python pour des applications d'IA et d'apprentissage automatique.

Le module commercial de base d'IO Cloud s'appelle Clusters - des groupes auto-coordonnés de GPU conçus pour gérer efficacement les tâches de calcul. Les ingénieurs en IA ont la flexibilité de personnaliser les clusters pour répondre à leurs besoins spécifiques.

L'interface utilisateur de IO.NET est très conviviale. Si vous souhaitez déployer votre propre cluster de puces pour des tâches de calcul d'IA, il vous suffit de naviguer vers la page Clusters de la plateforme, où vous pouvez facilement configurer votre cluster de puces souhaité selon vos besoins.

Informations sur la page : https://cloud.io.net/cloud/clusters/create-cluster, la même ci-dessous

Tout d'abord, vous devez sélectionner votre type de cluster, avec trois options disponibles:

  • Général: Fournit un environnement général, adapté aux premières étapes d'un projet où les besoins spécifiques en ressources ne sont pas encore clairs.
  • Train: Un cluster conçu spécifiquement pour la formation et le peaufinage des modèles d'apprentissage automatique. Cette option fournit des ressources GPU supplémentaires, une capacité mémoire plus élevée et/ou des connexions réseau plus rapides pour accueillir ces tâches informatiques intensives.
  • Inférence : Un cluster conçu pour l'inférence à faible latence et un travail à forte charge. Dans le contexte de l'apprentissage automatique, l'inférence fait référence à l'utilisation de modèles entraînés pour prédire ou analyser de nouveaux ensembles de données et fournir des retours. Par conséquent, cette option met l'accent sur l'optimisation de la latence et du débit pour prendre en charge les besoins de traitement des données en temps réel ou presque en temps réel.

Ensuite, vous devez choisir un fournisseur pour votre cluster. IO.NET a des partenariats avec Render Network et le réseau de mineurs Filecoin, permettant aux utilisateurs de sélectionner des puces de IO.NET ou des deux autres réseaux comme source d'approvisionnement pour leurs clusters informatiques. Cela positionne efficacement IO.NET en tant qu'agrégateur (note : les services Filecoin sont temporairement hors ligne). Il convient de noter que IO.NET dispose actuellement de plus de 200 000 GPU disponibles en ligne, tandis que Render Network en a plus de 3 700 disponibles.

Par la suite, vous passerez à la phase de sélection du matériel de votre cluster. Actuellement, IO.NET répertorie uniquement les GPU comme option matérielle disponible, excluant les CPU ou les iGPU d'Apple (M1, M2, etc.), les GPU étant principalement constitués de produits NVIDIA.

Parmi les options matérielles GPU officiellement répertoriées et disponibles, sur la base des données testées par moi le jour même, le nombre total de GPU en ligne disponibles dans le réseau IO.NET était de 206 001. Le GPU avec la disponibilité la plus élevée était le GeForce RTX 4090, avec 45 250 unités, suivi du GeForce RTX 3090 Ti, avec 30 779 unités.

De plus, il y a 7 965 unités de la puce A100-SXM4-80 Go très efficace (chaque unité est vendue à plus de 15 000 $) disponibles en ligne, ce qui est plus efficace pour les tâches de calcul d'IA telles que l'apprentissage automatique, l'apprentissage profond et le calcul scientifique.

Le NVIDIA H100 80GB HBM3, conçu de A à Z pour l'IA (avec un prix de marché de plus de 40 000 $), offre des performances d'entraînement 3,3 fois supérieures et des performances d'inférence 4,5 fois plus élevées que l'A100. Actuellement, 86 unités sont disponibles en ligne.

Une fois que le type de matériel pour le cluster a été choisi, les utilisateurs devront spécifier d'autres détails tels que l'emplacement géographique du cluster, la vitesse de connectivité, le nombre de GPUs et la durée.

Enfin, IO.NET calculera une facture détaillée en fonction de vos options sélectionnées. À titre d'illustration, considérez la configuration de cluster suivante :

  • Type de cluster: Général
  • 16 GPU A100-SXM4-80 Go
  • Connectivité de niveau : Haute vitesse
  • Emplacement géographique : États-Unis
  • Durée : 1 semaine

Le total de la facture pour cette configuration est de $3311.6, le prix de location horaire par carte étant de $1.232.

Le prix de location horaire d'un seul A100-SXM4-80Go sur Amazon Web Services, Google Cloud et Microsoft Azure est respectivement de 5,12 $, 5,07 $ et 3,67 $ (données provenant dehttps://cloud-gpus.com/,actualles prix peuvent varier en fonction des détails du contrat).

Par conséquent, en ce qui concerne les coûts, IO.NET propose une puissance de calcul à puce à des prix bien inférieurs à ceux des fournisseurs traditionnels. De plus, la flexibilité des options d'approvisionnement et d'approvisionnement fait d'IO.NET un choix attrayant pour de nombreux utilisateurs.

Présentation de l'entreprise

Côté Offre

Au 4 avril 2024, les chiffres officiels révèlent que IO.NET avait un approvisionnement total de 371 027 unités de GPU et un approvisionnement de 42 321 unités de CPU du côté de l'offre. De plus, Render Network, en tant que partenaire, disposait de 9 997 GPU supplémentaires et de 776 CPU connectés à l'offre du réseau.

Source de données : https://cloud.io.net/explorer/home, la même ci-dessous

Au moment de la rédaction, 214 387 des GPUs intégrés à IO.NET étaient en ligne, ce qui représente un taux de 57,8 %. Le taux de connexion en ligne pour les GPUs provenant de Render Network était de 45,1 %.

Que signifie ces données du côté de l'offre?

Pour fournir un point de référence, permettez-nous d'introduire Akash Network, un projet de calcul décentralisé plus expérimenté.

Le réseau Akash a lancé son mainnet dès 2020, se concentrant initialement sur les services décentralisés pour les processeurs et le stockage. Il a déployé un testnet pour les services GPU en juin 2023, puis a lancé le mainnet pour la puissance de calcul GPU décentralisée en septembre de la même année.

Source de données :https://stats.akash.network/provider-graph/graphics-gpu

Selon les données officielles d'Akash, bien que l'offre ait augmenté continuellement depuis le lancement de son réseau GPU, le nombre total de GPU connectés au réseau reste seulement de 365.

Lors de l'évaluation du volume de l'offre de GPU, IO.NET dépasse largement Akash Network, opérant à une échelle nettement plus grande. IO.NET s'est imposé comme le plus grand fournisseur dans le secteur décentralisé de la puissance de calcul GPU.

Demand Side

Du côté de la demande, IO.NET en est encore aux premiers stades de la culture du marché, avec un volume total relativement faible de tâches de calcul exécutées sur son réseau. La majorité des GPU sont en ligne mais inactifs, affichant un pourcentage de charge de travail de 0%. Seuls quatre types de puces - le A100 PCIe 80GB K8S, le RTX A6000 K8S, le RTX A4000 K8S et le H100 80GB HBM3 - sont activement engagés dans le traitement des tâches, et parmi ceux-ci, seul le A100 PCIe 80GB K8S connaît une charge de travail supérieure à 20%.

Le niveau de stress officiel du réseau signalé pour la journée était de 0%, ce qui indique qu'une partie significative de l'offre de GPU est actuellement en ligne mais inutilisée.

Financièrement, IO.NET a accumulé 586,029 $ de frais de service à ce jour, dont 3,200 $ de ce total ont été générés le jour le plus récent.

Source de données : https://cloud.io.net/explorer/clusters

Les données financières concernant les frais de règlement du réseau, tant en termes de volumes de transactions totaux que quotidiens, correspondent étroitement à ceux d'Akash. Cependant, il est important de noter que la majeure partie des revenus d'Akash provient de ses offres de CPU, avec un inventaire dépassant 20 000 CPU.

Source de données : https://stats.akash.network/

De plus, IO.NET a divulgué des données détaillées pour les tâches d'inférence en IA traitées par le réseau. Selon le dernier rapport, la plateforme a traité et validé avec succès plus de 230 000 tâches d'inférence, bien que la majeure partie de ce volume provienne de BC8.AI, un projet parrainé par IO.NET.

Source de données :https://cloud.io.net/explorer/inferences

Le côté offre de IO.NET s'élargit efficacement, stimulé par les attentes entourant une distribution gratuite et un événement communautaire appelé "Ignition." Cette initiative a rapidement attiré une quantité significative de puissance de calcul AI. En revanche, du côté de la demande, l'expansion reste naissante avec une demande organique insuffisante. Les raisons derrière cette demande morose, que ce soit en raison d'efforts de sensibilisation des consommateurs non initiés ou d'expériences de service instables menant à une adoption limitée à grande échelle, nécessitent une évaluation supplémentaire.

Compte tenu des défis liés à la fermeture rapide de l'écart en matière de capacités de calcul en IA, de nombreux ingénieurs en IA et projets explorent des alternatives, ce qui pourrait susciter un intérêt croissant pour les fournisseurs de services décentralisés. De plus, IO.NET n'a pas encore mis en place d'incitations économiques ou d'activités pour stimuler la demande, et à mesure que l'expérience produit continue de s'améliorer, l'équilibre anticipé entre l'offre et la demande laisse entrevoir des promesses pour l'avenir.

2.3 Contexte de l'équipe et aperçu de la collecte de fonds

Profil de l'équipe

L'équipe principale d'IO.NET s'est initialement concentrée sur le trading quantitatif. Jusqu'en juin 2022, ils se sont consacrés à la création de systèmes de trading quantitatif de niveau institutionnel pour les actions et les cryptomonnaies. Poussée par la demande de puissance de calcul du backend du système, l'équipe a commencé à explorer le potentiel du calcul décentralisé et s'est finalement concentrée sur la question spécifique de la réduction du coût des services de calcul GPU.

Fondateur & PDG: Ahmad Shadid

Avant de fonder IO.NET, Ahmad Shadid avait travaillé dans la finance quantitative et l'ingénierie financière, et il est également bénévole à la Fondation Ethereum.

CMO & Chief Strategy Officer: Garrison Yang

Garrison Yang a officiellement rejoint IO.NET en mars 2024. Avant cela, il était vice-président de la stratégie et de la croissance chez Avalanche et est un ancien élève de l'Université de Californie, Santa Barbara.

COO: Tory Green

Tory Green est le directeur des opérations de IO.NET. Il était auparavant le directeur des opérations de Hum Capital et le directeur du développement commercial et de la stratégie chez Fox Mobile Group. Il est diplômé de l'Université Stanford.

Le profil LinkedIn de IO.NET indique que l'équipe a son siège à New York, aux États-Unis, avec un bureau secondaire à San Francisco, et emploie plus de 50 collaborateurs.

Aperçu du financement

IO.NET n'a annoncé publiquement qu'une seule levée de fonds, une série A achevée en mars de cette année avec une valorisation de 1 milliard de dollars, à travers laquelle ils ont réussi à lever 30 millions de dollars. Cette levée a été dirigée par Hack VC, avec la participation d'autres investisseurs, notamment Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures et ArkStream Capital.

Notamment, l'investissement de la Fondation Aptos pourrait avoir influencé la décision du projet BC8.AI de passer de l'utilisation de Solana pour ses processus de règlement et de comptabilité à la blockchain de couche 1 tout aussi performante, Aptos.

Estimation de la valorisation 2.4

Selon les déclarations précédentes du fondateur et PDG Ahmad Shadid, IO.NET devrait lancer son jeton d'ici la fin d'avril 2024.

IO.NET a deux projets de référence qui servent de référence pour l'évaluation : Render Network et Akash Network, tous deux étant des projets de calcul décentralisé représentatifs.

Il existe deux méthodes principales pour déduire une estimation de la capitalisation boursière de IO.NET : 1. Le ratio prix/ventes (P/S), qui compare la FDV au chiffre d'affaires ; 2. Ratio FDV/Chip (M/C Ratio)

Nous commencerons par examiner la valorisation potentielle en utilisant le ratio prix-ventes :

En examinant le ratio prix/ventes, Akash représente l'extrémité conservatrice du spectre de valorisation estimé d'IO.NET, tandis que Render fournit une référence haut de gamme, posant une FDV allant de 1,67 milliard à 5,93 milliards de dollars.

Cependant, compte tenu des mises à jour apportées au projet IO.NET, son récit plus convaincant, associé à sa capitalisation boursière initiale plus petite et à une base d’approvisionnement plus large, suggère que son FDV pourrait bien dépasser celui de Render Network.

En se tournant vers une autre perspective de comparaison de valorisation, à savoir le "ratio FDV-to-Chip".

Dans le contexte d'un marché où la demande de puissance de calcul en IA dépasse l'offre, l'élément le plus crucial des réseaux informatiques d'IA décentralisée est l'échelle de l'offre de GPU. Par conséquent, nous pouvons utiliser le "Ratio FDV-to-Chip", qui est le ratio de la valeur entièrement diluée du projet au nombre de puces dans le réseau, pour déduire la plage de valorisation possible de IO.NET, fournissant aux lecteurs une référence.

En utilisant le ratio marché-puce pour calculer la fourchette de valorisation d'IO.NET, nous nous situons entre 20,6 milliards et 197,5 milliards de dollars, Render Network établissant le benchmark supérieur et Akash Network l'inférieur.

Les passionnés du projet IO.NET pourraient voir cela comme une estimation très optimiste de la capitalisation boursière.

Il est important de prendre en compte le nombre important actuel de jetons en ligne pour IO.NET, stimulé par les attentes en matière de largage aérien et les activités incitatives. Le nombre réel en ligne de l'offre après le lancement officiel du projet nécessite encore une observation.

Dans l'ensemble, les évaluations dérivées du ratio prix/volume des ventes pourraient offrir des idées plus fiables.

IO.NET, construit sur Solana et agrémenté de la convergence de l'IA et de DePIN, est sur le point de lancer son jeton. L'anticipation est palpable alors que nous attendons de voir l'impact sur sa capitalisation boursière après le lancement.

Référence:

Dephi Digital: La Véritable Fusion

Galaxy: Comprendre l'intersection de la crypto et de l'IA

Déclaration :

  1. Cet article est reproduit à partir de [ panews], et les droits d'auteur appartiennent à l'auteur original [Alex Xu], si vous avez des objections à la réimpression, veuillez contacter Équipe d'apprentissage Gate , l'équipe le traitera dès que possible selon les procédures pertinentes.

  2. Avertissement : Les points de vue et opinions exprimés dans cet article ne représentent que les opinions personnelles de l'auteur et ne constituent aucun conseil en investissement.

  3. Les autres versions linguistiques de l'article sont traduites par l'équipe Gate Learn et ne sont pas mentionnées dans Gate.io, l'article traduit ne peut être reproduit, distribué ou plagié.

IO.NET : Une plongée profonde dans la convergence de l'IA et de Web3

Débutant4/23/2024, 10:44:52 AM
L'article approfondit la nécessité commerciale de combiner l'IA avec Web3, en mettant l'accent sur l'importance et les défis des services de puissance de calcul distribuée. Il accorde une attention particulière au projet IO.NET, une plateforme de puissance de calcul distribuée en IA, visant à inciter à la convergence de la puissance de calcul en IA grâce à un modèle de jetons, offrant des services de calcul en IA flexibles, rapides et peu coûteux. L'article analyse la logique du produit, l'expérience de l'équipe et la situation de financement de IO.NET, et prévoit également sa valeur marchande potentielle. De plus, l'article discute de la tendance de développement du marché de la puissance de calcul distribuée et des facteurs d'influence possibles.

Republier le titre original: Un nouveau projet AI + DePIN basé sur Solana: Une brève analyse du prochain lancement de jetons IO.NET

Introduction

Dansnotre dernier rapport, nous avons mentionné que par rapport aux deux cycles précédents, la hausse actuelle des cryptomonnaies se passe des nouveaux modèles commerciaux et des récits d'actifs. L'intelligence artificielle (IA) est l'un des récits novateurs dans l'espace Web3 de ce cycle. Cet article se penche sur le projet d'IA en vogue de l'année, IO.NET, et organise les réflexions autour des deux questions suivantes :

  • La nécessité de l'IA+Web3 dans le paysage commercial
  • La nécessité et les défis du déploiement d'un réseau informatique décentralisé

Deuxièmement, je vais organiser les informations clés sur le projet représentatif dans le réseau informatique AI décentralisé : IO.NET, y compris la conception du produit, le paysage concurrentiel et l'arrière-plan du projet. Je vais également spéculer sur les indicateurs de valorisation du projet.

Les informations sur La logique commerciale derrière la convergence de l'IA et de Web3la pièce s'inspire de "Gate"La Fusion Réellepar Michael Rinko, analyste de recherche chez Delphi Delphi. Cette analyse assimile et référence des idées de son travail, il est fortement recommandé au lecteur de lire l'article original.

Veuillez noter que cet article reflète ma réflexion actuelle et peut évoluer. Les opinions exprimées ici sont subjectives et il peut y avoir des erreurs dans les faits, les données et le raisonnement logique. Il ne s'agit pas de conseils financiers, mais les retours et les discussions sont les bienvenus.

Ce qui suit est le texte principal.

1. La logique commerciale derrière la convergence de l'IA et du Web3

1.1 2023: L'“Annus Mirabilis” pour l'IA

En réfléchissant sur les annales du développement humain, il est clair que les percées technologiques catalysent des transformations profondes - de la vie quotidienne aux paysages industriels et à la marche de la civilisation elle-même.

Dans l'histoire de l'humanité, il y a deux années significatives, à savoir 1666 et 1905, qui sont maintenant célébrées comme l'« Annus Mirabilis » dans l'histoire de la science.

L'année 1666 a mérité son titre en raison de la cascade de percées scientifiques d'Isaac Newton. En une seule année, il a été le pionnier de la branche de la physique connue sous le nom d'optique, a fondé la discipline mathématique du calcul infinitésimal et a dérivé la loi de la gravitation, qui est une loi fondamentale de la science naturelle moderne. Chacune de ces contributions a été fondamentale pour le développement scientifique de l'humanité au cours du siècle suivant, accélérant significativement le progrès global de la science.

L'autre année phare est 1905, quand un jeune Einstein de seulement 26 ans a publié quatre articles coup sur coup dans «Annalen der Physik», couvrant l'effet photoélectrique, posant les bases de la mécanique quantique; le mouvement brownien, fournissant un cadre essentiel pour l'analyse des processus stochastiques; la théorie de la relativité restreinte; et l'équivalence masse-énergie, encapsulée dans l'équation E=MC^2. Avec le recul, chacun de ces articles est considéré comme dépassant le niveau moyen du travail récompensé par un prix Nobel en physique, une distinction qu'Einstein lui-même a reçue pour son travail sur l'effet photoélectrique. Ces contributions ont collectivement propulsé l'humanité de plusieurs pas en avant dans le voyage de la civilisation.

L'année 2023, récemment derrière nous, est sur le point d'être célébrée comme une autre « Année Miracle », en grande partie grâce à l'émergence de ChatGPT.

Considérer 2023 comme une « Année Miracle » dans l'histoire de la technologie humaine ne consiste pas seulement à reconnaître les progrès réalisés dans le traitement et la génération de langage naturel par ChatGPT. C'est aussi reconnaître un schéma clair dans l'avancement des grands modèles de langage - la réalisation qu'en étendant les paramètres du modèle et les ensembles de données d'entraînement, nous pouvons obtenir des améliorations exponentielles des performances du modèle. De plus, cela semble illimité à court terme, en supposant que la puissance de calcul reste à la hauteur.

Cette capacité va bien au-delà de la compréhension du langage et de la génération de conversations; elle peut être largement appliquée dans divers domaines scientifiques. Prenons l'exemple de l'application de grands modèles linguistiques dans le secteur biologique:

  • En 2018, la lauréate du prix Nobel de chimie, Frances Arnold, a déclaré lors de sa cérémonie de remise des prix : "Aujourd'hui, nous pouvons, pour ainsi dire, lire, écrire et éditer n'importe quelle séquence d'ADN, mais nous ne pouvons pas la composer." En avançant rapidement de cinq ans jusqu'en 2023, une équipe de chercheurs de l'Université Stanford et de Salesforce Research, une start-up axée sur l'IA, a publié un article dans "Nature Biotechnology". En utilisant un grand modèle linguistique raffiné à partir de GPT-3, ils ont généré un tout nouveau catalogue de 1 million de protéines. Parmi celles-ci, ils ont découvert deux protéines ayant des structures distinctes, toutes deux dotées d'une fonction antibactérienne, ouvrant potentiellement la voie à de nouvelles stratégies de résistance bactérienne au-delà des antibiotiques traditionnels. Cela signifie un saut monumental dans le dépassement des obstacles de la création de protéines avec l'aide de l'IA.
  • Avant cela, l'algorithme d'intelligence artificielle AlphaFold a prédit les structures de près de 2,14 milliards de types de protéines sur Terre en 18 mois, un jalon qui amplifie les réalisations des biologistes structuraux tout au long de l'histoire de plusieurs ordres de grandeur.

L'intégration de modèles d'IA promet de transformer radicalement les industries. Des domaines de haute technologie de la biotechnologie, des sciences des matériaux et de la découverte de médicaments aux sphères culturelles du droit et des arts, une vague transformative est sur le point de remodeler ces domaines, 2023 marquant le début de tout cela.

Il est largement reconnu que le siècle dernier a vu une augmentation exponentielle de la capacité de l'humanité à générer de la richesse. La rapide avancée des technologies d'IA devrait accélérer ce processus.

Tendance mondiale du PIB total, Source de données : Groupe de la Banque mondiale

1.2 Fusion de l'IA et de la Crypto

Pour saisir le besoin inhérent de fusion entre l'IA et la crypto, il est instructif de regarder comment leurs caractéristiques distinctes se complètent mutuellement.

La symbiose des fonctionnalités AI et Crypto

L'IA se distingue par trois qualités principales:

  • Stochasticité : l'IA est stochastique, avec son mécanisme de production de contenu étant une boîte noire difficile à reproduire et énigmatique, rendant ses sorties intrinsèquement stochastiques.
  • Ressources Intensives: L'IA est une industrie intensive en ressources, nécessitant des quantités importantes d'énergie, de puces et de puissance de calcul.
  • Intelligence semblable à celle humaine : l'IA est (bientôt) capable de passer le test de Turing, rendant de plus en plus difficile de distinguer entre les humains et l'IA.*

_※_ Le 30 octobre 2023, des chercheurs de l'Université de Californie à San Diego ont dévoilé les scores du test de Turing pour GPT-3.5 et GPT-4.0. Ce dernier a obtenu un score de 41 %, manquant de justesse la note de passage de 50 %, les humains obtenant 63 % au même test. L'essence de ce test de Turing réside dans le nombre de participants percevant leur interlocuteur comme étant humain. Un score supérieur à 50 % indique que la majorité croit interagir avec un humain, et non avec une machine, considérant ainsi que l'IA a réussi le test de Turing car au moins la moitié des personnes n'ont pas pu la distinguer d'un humain.

Alors que l'IA ouvre la voie à des avancées révolutionnaires en matière de productivité humaine, elle introduit simultanément des défis profonds à notre société, notamment :

  • Comment vérifier et contrôler la stochasticité de l'IA, en faire un avantage plutôt qu'un défaut
  • Comment combler les vastes besoins en énergie et en puissance de calcul que l'IA exige
  • Comment faire la distinction entre les humains et l’IA

La technologie crypto et blockchain pourrait offrir la solution idéale aux défis posés par l'IA, caractérisée par trois attributs clés :

  • Déterminisme : Les opérations sont basées sur la blockchain, le code et les contrats intelligents, avec des règles et des limites claires. Les entrées conduisent à des sorties prévisibles, garantissant un haut niveau de déterminisme.
  • Allocation efficace des ressources : L'économie crypto a favorisé un marché vaste, mondial et libre, permettant une tarification, une collecte de fonds et un transfert rapides des ressources. La présence de jetons accélère encore l'alignement de l'offre et de la demande sur le marché, atteignant rapidement une masse critique grâce à l'incitation.
  • Absence de confiance : Avec des registres publics et un code source ouvert, n'importe qui peut facilement vérifier les opérations, créant ainsi un système "sans confiance". De plus, la technologie de connaissance nulle (ZK) garantit davantage que la confidentialité est maintenue pendant ces processus de vérification.

Pour démontrer la complémentarité entre l'IA et l'économie crypto, plongeons-nous dans trois exemples.

Exemple A: Surmonter la Stochasticité avec des Agents d'IA Alimentés par l'Économie Crypto

Les agents d'IA sont des programmes intelligents conçus pour effectuer des tâches au nom des humains selon leurs directives, Fetch.AI étant un exemple notable dans ce domaine. Imaginez que nous confions à notre agent d'IA l'exécution d'une opération financière, telle que « investir 1000 $ en BTC ». L'agent d'IA pourrait rencontrer deux scénarios distincts :

Scénario 1 : L'agent est tenu d'interagir avec des entités financières traditionnelles (par ex. BlackRock) pour acheter des ETF BTC, rencontrant de nombreux problèmes de compatibilité avec des organisations centralisées, y compris les procédures KYC, la vérification des documents, les processus de connexion et l'authentification de l'identité, tous particulièrement contraignants à l'heure actuelle.

Scénario 2 : Lorsqu'on opère au sein de l'économie cryptographique native, le processus devient simplifié. L'agent pourrait directement effectuer la transaction via Uniswap ou un agrégateur de trading similaire, en utilisant votre compte pour vous connecter et confirmer la commande, et acquérir par la suite du WBTC ou d'autres variantes de BTC enveloppé. Cette procédure est efficace et rationalisée. Fondamentalement, c'est la fonction actuellement assurée par divers Trading Bots, agissant comme des agents IA de base avec un accent sur les activités de trading. Avec le développement et l'intégration ultérieurs de l'IA, ces bots atteindront des objectifs de trading plus complexes. Par exemple, ils pourraient surveiller 100 adresses de smart money sur la blockchain, évaluer leurs stratégies de trading et leurs taux de réussite, allouer 10 % de leurs fonds pour copier leurs transactions sur une semaine, suspendre les opérations si les rendements sont défavorables et déduire les raisons potentielles de ces stratégies.

L'IA prospère au sein des systèmes blockchain, fondamentalement parce que les règles de l'économie crypto sont explicitement définies, et le système permet la permissionlessness. Le fait d'opérer selon des directives claires réduit considérablement les risques liés à la stochasticité inhérente de l'IA. Par exemple, la domination de l'IA sur les humains aux échecs et aux jeux vidéo découle du fait que ces environnements sont des boîtes fermées avec des règles simples. En revanche, les progrès dans la conduite autonome ont été plus progressifs. Les défis du monde ouvert sont plus complexes, et notre tolérance à la résolution de problèmes imprévisible de l'IA dans de tels scénarios est nettement plus basse.

Exemple B: Consolidation des ressources via des incitations en jetons

Le redoutable réseau mondial de hachage soutenant le BTC, avec un taux total actuel de hachage de 576,70 EH/s, dépasse la puissance de calcul cumulée de tous les supercalculateurs du monde. Cette croissance est propulsée par des incitations simples et équitables au sein du réseau.

Tendance du taux de hashrate BTC, source: https://www.coinwarz.com/

De plus, les projets DePIN comme Mobile explorent les incitatifs token pour cultiver un marché à la fois du côté de l'offre et de la demande afin de favoriser les effets de réseau. L'accent à venir de cet article, IO.NET, est une plateforme conçue pour agréger la puissance de calcul de l'IA, espérant débloquer le potentiel latent de la puissance de calcul de l'IA grâce à un modèle token.

Exemple C: Tirer parti de l'open source et de la preuve ZK pour différencier les humains de l'IA tout en protégeant la vie privée

Worldcoin, un projet Web3 co-fondé par Sam Altman d'OpenAI, utilise une approche novatrice de la vérification d'identité. En utilisant un appareil matériel appelé Orb, il exploite la biométrie de l'iris humain pour produire des valeurs de hachage uniques et anonymes via la technologie Zero-Knowledge (ZK), différenciant ainsi les humains de l'IA. Au début de mars 2024, le projet artistique Web3 Drip a commencé à mettre en œuvre l'identifiant Worldcoin pour authentifier de vrais humains et allouer des récompenses.

Worldcoin a récemment rendu open-source son matériel iris, Orb, garantissant la sécurité et la confidentialité des données biométriques.

Dans l'ensemble, en raison du déterminisme du code et de la cryptographie, de la circulation des ressources et des avantages du financement apportés par des mécanismes sans autorisation et basés sur des jetons, ainsi que de la nature sans confiance basée sur le code source ouvert et les registres publics, l'économie crypto est devenue une solution potentielle significative aux défis auxquels la société humaine est confrontée avec l'IA.

Le défi le plus immédiat et commercialement exigeant est la soif extrême de ressources computationnelles requise par les produits d'IA, principalement entraînée par un besoin substantiel de puces et de puissance de calcul.

C'est également la principale raison pour laquelle les projets de puissance de calcul distribuée ont conduit les gains au cours de ce cycle de marché haussier dans le secteur global de l'IA.

L'impératif commercial pour l'informatique décentralisée

L'IA nécessite des ressources informatiques substantielles, nécessaires à la fois pour la formation des modèles et les tâches d'inférence.

Il a été largement documenté dans la formation des grands modèles linguistiques que, une fois l'ampleur des paramètres de données est importante, ces modèles commencent à présenter des capacités sans précédent. Les améliorations exponentielles observées d'une génération ChatGPT à la suivante sont entraînées par une croissance exponentielle des besoins en calcul pour la formation du modèle.

Des recherches de DeepMind et de l'Université Stanford indiquent que, selon divers grands modèles linguistiques, lorsqu'ils traitent différentes tâches - que ce soit le calcul, la réponse à des questions en persan ou la compréhension du langage naturel - les modèles ne font qu'approximer une supposition aléatoire, sauf si la formation implique des paramètres de modèle considérablement augmentés (et par extension, des charges computationnelles). Les performances de n'importe quelle tâche restent presque aléatoires jusqu'à ce que les efforts computationnels atteignent 10^22 FLOPS. Au-delà de ce seuil critique, les performances des tâches s'améliorent de manière spectaculaire pour n'importe quel modèle linguistique.

Source: Capacités émergentes des grands modèles de langage

Source: Capacités émergentes des grands modèles de langage

Le principe de "réaliser des miracles avec beaucoup d'efforts" en puissance de calcul, à la fois en théorie et vérifié en pratique, a inspiré le fondateur d'OpenAI, Sam Altman, à proposer un plan ambitieux pour lever 7 billions de dollars. Ce fonds est destiné à établir une usine de puces qui dépasserait les capacités actuelles de TSMC de dix fois (estimé à 1,5 billion de dollars), le reste des fonds étant alloué à la production de puces et à la formation de modèles.

Outre les exigences en calcul liées à la formation des modèles d'IA, les processus d'inférence nécessitent également une puissance de calcul considérable, bien que moins importante que la formation. Ce besoin continu en puces et en ressources informatiques est devenu une réalité standard pour les acteurs du domaine de l'IA.

Contrairement aux fournisseurs centralisés de calcul d'IA tels qu'Amazon Web Services, Google Cloud Platform et Azure de Microsoft, le calcul d'IA décentralisé offre plusieurs propositions de valeur convaincantes :

  • Accessibilité : Accéder aux puces informatiques via des services comme AWS, GCP ou Azure nécessite généralement des semaines, et les modèles de GPU les plus populaires sont souvent en rupture de stock. De plus, les consommateurs sont généralement liés par de longs contrats rigides avec ces grandes entreprises. En revanche, les plateformes informatiques distribuées offrent des options matérielles flexibles avec une accessibilité accrue.
  • Efficacité des coûts : En tirant parti des puces inactives et en intégrant des subventions en jetons des protocoles réseau pour les fournisseurs de puces et de puissance de calcul, les réseaux informatiques décentralisés peuvent offrir une puissance de calcul à des coûts réduits.
  • Résistance à la censure : L'approvisionnement en puces de pointe est actuellement dominé par les grandes entreprises technologiques, et avec le gouvernement des États-Unis intensifiant son examen des services informatiques basés sur l'IA, la capacité d'obtenir de la puissance de calcul de manière décentralisée, flexible et sans restriction devient de plus en plus une nécessité évidente. C'est une proposition de valeur fondamentale des plateformes informatiques basées sur le web3.

Si les combustibles fossiles ont été le sang de la révolution industrielle, la puissance de calcul pourrait bien être le sang de la nouvelle ère numérique inaugurée par l'IA, faisant de l'approvisionnement en puissance de calcul une infrastructure pour l'ère de l'IA. De la même manière que les stablecoins ont émergé comme un dérivé vigoureux de la monnaie fiduciaire dans l'époque Web3, le marché de l'informatique distribuée pourrait-il évoluer en un segment florissant au sein du marché en pleine expansion de l'informatique de l'IA ?

Il s'agit toujours d'un marché émergent, et beaucoup reste à voir. Cependant, plusieurs facteurs pourraient potentiellement influencer le récit ou l'adoption du marché de l'informatique décentralisée :

  • Défis persistants d'approvisionnement en GPU : Les contraintes d'approvisionnement en cours pour les GPU pourraient encourager les développeurs à explorer des plates-formes informatiques décentralisées.
  • Expansion réglementaire : Accéder aux services de calcul AI des principales plateformes cloud implique des processus KYC approfondis et un examen minutieux. Cela pourrait conduire à une adoption plus importante des plateformes de calcul décentralisées, notamment dans les régions confrontées à des restrictions ou des sanctions.
  • Incitations au prix des jetons : Les augmentations des prix des jetons pendant les marchés haussiers pourraient améliorer la valeur des subventions offertes aux fournisseurs de GPU par les plates-formes, attirant ainsi plus de vendeurs sur le marché, augmentant son ampleur et réduisant les coûts pour les consommateurs.

En même temps, les défis auxquels sont confrontées les plateformes de calcul décentralisé sont également assez évidents :

Défis techniques et d'ingénierie

  • Problèmes de preuve de travail: Les calculs dans les modèles d'apprentissage profond, en raison de la structure hiérarchique où la sortie de chaque couche est utilisée comme entrée pour la suivante, vérifier la validité des calculs nécessite d'exécuter tout le travail antérieur, ce qui n'est ni simple ni efficace. Pour relever ce défi, les plates-formes informatiques décentralisées doivent soit développer de nouveaux algorithmes, soit utiliser des techniques de vérification approximative offrant une garantie probabiliste des résultats, plutôt qu'un déterminisme absolu.
  • Défis de la parallélisation : Les plateformes informatiques décentralisées font appel à une gamme diversifiée de fournisseurs de puces, chacun offrant généralement une puissance de calcul limitée. Il est presque impossible de terminer les tâches d'entraînement ou d'inférence d'un modèle d'IA par un seul fournisseur de puces rapidement. Par conséquent, les tâches doivent être décomposées et distribuées en utilisant la parallélisation pour raccourcir le temps total de réalisation. Cependant, cette approche introduit plusieurs complications, notamment la manière dont les tâches sont décomposées (en particulier les tâches complexes d'apprentissage profond), les dépendances des données et les coûts supplémentaires de connectivité entre les appareils.
  • Problèmes de protection de la vie privée : Comment peut-on s'assurer que les données et les modèles du client ne sont pas divulgués au destinataire des tâches ?

Défis de conformité réglementaire

  • Les plateformes de calcul décentralisé, en raison de leur nature sans autorisation sur les marchés de l'offre et de la demande, peuvent attirer certains clients en tant que point de vente clé. Cependant, à mesure que les cadres réglementaires de l'IA évoluent, ces plateformes pourraient de plus en plus devenir des cibles de surveillance gouvernementale. De plus, certains fournisseurs de GPU s'inquiètent de savoir si leurs ressources informatiques louées sont utilisées par des entreprises ou des particuliers sanctionnés.

En résumé, les principaux utilisateurs des plateformes informatiques décentralisées sont principalement des développeurs professionnels ou des petites et moyennes entreprises. Contrairement aux investisseurs en cryptomonnaie et en NFT, ces clients privilégient la stabilité et la continuité des services fournis par les plateformes, et le prix n'est pas nécessairement leur principale préoccupation. Les plateformes informatiques décentralisées ont un long chemin à parcourir avant de pouvoir gagner une acceptation généralisée de cette base d'utilisateurs exigeante.

Ensuite, nous plongerons dans les détails et réaliserons une analyse d'IO.NET, un nouveau projet de puissance de calcul décentralisée dans ce cycle. Nous le comparerons également à des projets similaires pour estimer sa valorisation potentielle sur le marché après son lancement.

2. Plateforme de calcul AI décentralisée : IO.NET

2.1 Aperçu du projet

IO.NET est un réseau informatique décentralisé qui a établi un marché à deux faces autour des puces. Du côté de l'offre, il existe des puissances de calcul distribuées à l'échelle mondiale, principalement des GPU, mais aussi des CPU et des GPU intégrés d'Apple (iGPU). Le côté demande se compose d'ingénieurs en IA cherchant à accomplir des tâches de formation ou d'inférence de modèles d'IA.

Le site officiel de IO.NET déclare leur vision :

Notre mission

Assemblage d'un million de GPU dans un DePIN - réseau d'infrastructure physique décentralisée.

Sa mission est d'intégrer des millions de GPU dans son réseau DePIN.

Comparé aux services traditionnels de calcul AI en nuage, cette plateforme met en avant plusieurs avantages clés :

  • Configuration flexible : les ingénieurs en IA ont la liberté de sélectionner et d'assembler les puces nécessaires dans un "cluster" adapté à leurs tâches informatiques spécifiques.
  • Déploiement rapide : Contrairement aux délais d'approbation et d'attente prolongés associés aux fournisseurs centralisés tels que AWS, le déploiement sur cette plateforme peut être complété en quelques secondes seulement, permettant ainsi le commencement immédiat des tâches.
  • Efficacité des coûts: Les coûts de service sont jusqu'à 90% inférieurs à ceux proposés par les fournisseurs traditionnels.

De plus, IO.NET prévoit de lancer des services supplémentaires à l'avenir, tels qu'une boutique de modèles d'IA.

2.2 Mécanisme du produit et indicateurs commerciaux

Mécanismes de produit et expérience de déploiement

Similaire aux principales plateformes telles qu'Amazon Cloud, Google Cloud et Alibaba Cloud, IO.NET propose un service informatique appelé IO Cloud. Ce service fonctionne via un réseau distribué et décentralisé de puces qui prend en charge l'exécution de code d'apprentissage automatique basé sur Python pour des applications d'IA et d'apprentissage automatique.

Le module commercial de base d'IO Cloud s'appelle Clusters - des groupes auto-coordonnés de GPU conçus pour gérer efficacement les tâches de calcul. Les ingénieurs en IA ont la flexibilité de personnaliser les clusters pour répondre à leurs besoins spécifiques.

L'interface utilisateur de IO.NET est très conviviale. Si vous souhaitez déployer votre propre cluster de puces pour des tâches de calcul d'IA, il vous suffit de naviguer vers la page Clusters de la plateforme, où vous pouvez facilement configurer votre cluster de puces souhaité selon vos besoins.

Informations sur la page : https://cloud.io.net/cloud/clusters/create-cluster, la même ci-dessous

Tout d'abord, vous devez sélectionner votre type de cluster, avec trois options disponibles:

  • Général: Fournit un environnement général, adapté aux premières étapes d'un projet où les besoins spécifiques en ressources ne sont pas encore clairs.
  • Train: Un cluster conçu spécifiquement pour la formation et le peaufinage des modèles d'apprentissage automatique. Cette option fournit des ressources GPU supplémentaires, une capacité mémoire plus élevée et/ou des connexions réseau plus rapides pour accueillir ces tâches informatiques intensives.
  • Inférence : Un cluster conçu pour l'inférence à faible latence et un travail à forte charge. Dans le contexte de l'apprentissage automatique, l'inférence fait référence à l'utilisation de modèles entraînés pour prédire ou analyser de nouveaux ensembles de données et fournir des retours. Par conséquent, cette option met l'accent sur l'optimisation de la latence et du débit pour prendre en charge les besoins de traitement des données en temps réel ou presque en temps réel.

Ensuite, vous devez choisir un fournisseur pour votre cluster. IO.NET a des partenariats avec Render Network et le réseau de mineurs Filecoin, permettant aux utilisateurs de sélectionner des puces de IO.NET ou des deux autres réseaux comme source d'approvisionnement pour leurs clusters informatiques. Cela positionne efficacement IO.NET en tant qu'agrégateur (note : les services Filecoin sont temporairement hors ligne). Il convient de noter que IO.NET dispose actuellement de plus de 200 000 GPU disponibles en ligne, tandis que Render Network en a plus de 3 700 disponibles.

Par la suite, vous passerez à la phase de sélection du matériel de votre cluster. Actuellement, IO.NET répertorie uniquement les GPU comme option matérielle disponible, excluant les CPU ou les iGPU d'Apple (M1, M2, etc.), les GPU étant principalement constitués de produits NVIDIA.

Parmi les options matérielles GPU officiellement répertoriées et disponibles, sur la base des données testées par moi le jour même, le nombre total de GPU en ligne disponibles dans le réseau IO.NET était de 206 001. Le GPU avec la disponibilité la plus élevée était le GeForce RTX 4090, avec 45 250 unités, suivi du GeForce RTX 3090 Ti, avec 30 779 unités.

De plus, il y a 7 965 unités de la puce A100-SXM4-80 Go très efficace (chaque unité est vendue à plus de 15 000 $) disponibles en ligne, ce qui est plus efficace pour les tâches de calcul d'IA telles que l'apprentissage automatique, l'apprentissage profond et le calcul scientifique.

Le NVIDIA H100 80GB HBM3, conçu de A à Z pour l'IA (avec un prix de marché de plus de 40 000 $), offre des performances d'entraînement 3,3 fois supérieures et des performances d'inférence 4,5 fois plus élevées que l'A100. Actuellement, 86 unités sont disponibles en ligne.

Une fois que le type de matériel pour le cluster a été choisi, les utilisateurs devront spécifier d'autres détails tels que l'emplacement géographique du cluster, la vitesse de connectivité, le nombre de GPUs et la durée.

Enfin, IO.NET calculera une facture détaillée en fonction de vos options sélectionnées. À titre d'illustration, considérez la configuration de cluster suivante :

  • Type de cluster: Général
  • 16 GPU A100-SXM4-80 Go
  • Connectivité de niveau : Haute vitesse
  • Emplacement géographique : États-Unis
  • Durée : 1 semaine

Le total de la facture pour cette configuration est de $3311.6, le prix de location horaire par carte étant de $1.232.

Le prix de location horaire d'un seul A100-SXM4-80Go sur Amazon Web Services, Google Cloud et Microsoft Azure est respectivement de 5,12 $, 5,07 $ et 3,67 $ (données provenant dehttps://cloud-gpus.com/,actualles prix peuvent varier en fonction des détails du contrat).

Par conséquent, en ce qui concerne les coûts, IO.NET propose une puissance de calcul à puce à des prix bien inférieurs à ceux des fournisseurs traditionnels. De plus, la flexibilité des options d'approvisionnement et d'approvisionnement fait d'IO.NET un choix attrayant pour de nombreux utilisateurs.

Présentation de l'entreprise

Côté Offre

Au 4 avril 2024, les chiffres officiels révèlent que IO.NET avait un approvisionnement total de 371 027 unités de GPU et un approvisionnement de 42 321 unités de CPU du côté de l'offre. De plus, Render Network, en tant que partenaire, disposait de 9 997 GPU supplémentaires et de 776 CPU connectés à l'offre du réseau.

Source de données : https://cloud.io.net/explorer/home, la même ci-dessous

Au moment de la rédaction, 214 387 des GPUs intégrés à IO.NET étaient en ligne, ce qui représente un taux de 57,8 %. Le taux de connexion en ligne pour les GPUs provenant de Render Network était de 45,1 %.

Que signifie ces données du côté de l'offre?

Pour fournir un point de référence, permettez-nous d'introduire Akash Network, un projet de calcul décentralisé plus expérimenté.

Le réseau Akash a lancé son mainnet dès 2020, se concentrant initialement sur les services décentralisés pour les processeurs et le stockage. Il a déployé un testnet pour les services GPU en juin 2023, puis a lancé le mainnet pour la puissance de calcul GPU décentralisée en septembre de la même année.

Source de données :https://stats.akash.network/provider-graph/graphics-gpu

Selon les données officielles d'Akash, bien que l'offre ait augmenté continuellement depuis le lancement de son réseau GPU, le nombre total de GPU connectés au réseau reste seulement de 365.

Lors de l'évaluation du volume de l'offre de GPU, IO.NET dépasse largement Akash Network, opérant à une échelle nettement plus grande. IO.NET s'est imposé comme le plus grand fournisseur dans le secteur décentralisé de la puissance de calcul GPU.

Demand Side

Du côté de la demande, IO.NET en est encore aux premiers stades de la culture du marché, avec un volume total relativement faible de tâches de calcul exécutées sur son réseau. La majorité des GPU sont en ligne mais inactifs, affichant un pourcentage de charge de travail de 0%. Seuls quatre types de puces - le A100 PCIe 80GB K8S, le RTX A6000 K8S, le RTX A4000 K8S et le H100 80GB HBM3 - sont activement engagés dans le traitement des tâches, et parmi ceux-ci, seul le A100 PCIe 80GB K8S connaît une charge de travail supérieure à 20%.

Le niveau de stress officiel du réseau signalé pour la journée était de 0%, ce qui indique qu'une partie significative de l'offre de GPU est actuellement en ligne mais inutilisée.

Financièrement, IO.NET a accumulé 586,029 $ de frais de service à ce jour, dont 3,200 $ de ce total ont été générés le jour le plus récent.

Source de données : https://cloud.io.net/explorer/clusters

Les données financières concernant les frais de règlement du réseau, tant en termes de volumes de transactions totaux que quotidiens, correspondent étroitement à ceux d'Akash. Cependant, il est important de noter que la majeure partie des revenus d'Akash provient de ses offres de CPU, avec un inventaire dépassant 20 000 CPU.

Source de données : https://stats.akash.network/

De plus, IO.NET a divulgué des données détaillées pour les tâches d'inférence en IA traitées par le réseau. Selon le dernier rapport, la plateforme a traité et validé avec succès plus de 230 000 tâches d'inférence, bien que la majeure partie de ce volume provienne de BC8.AI, un projet parrainé par IO.NET.

Source de données :https://cloud.io.net/explorer/inferences

Le côté offre de IO.NET s'élargit efficacement, stimulé par les attentes entourant une distribution gratuite et un événement communautaire appelé "Ignition." Cette initiative a rapidement attiré une quantité significative de puissance de calcul AI. En revanche, du côté de la demande, l'expansion reste naissante avec une demande organique insuffisante. Les raisons derrière cette demande morose, que ce soit en raison d'efforts de sensibilisation des consommateurs non initiés ou d'expériences de service instables menant à une adoption limitée à grande échelle, nécessitent une évaluation supplémentaire.

Compte tenu des défis liés à la fermeture rapide de l'écart en matière de capacités de calcul en IA, de nombreux ingénieurs en IA et projets explorent des alternatives, ce qui pourrait susciter un intérêt croissant pour les fournisseurs de services décentralisés. De plus, IO.NET n'a pas encore mis en place d'incitations économiques ou d'activités pour stimuler la demande, et à mesure que l'expérience produit continue de s'améliorer, l'équilibre anticipé entre l'offre et la demande laisse entrevoir des promesses pour l'avenir.

2.3 Contexte de l'équipe et aperçu de la collecte de fonds

Profil de l'équipe

L'équipe principale d'IO.NET s'est initialement concentrée sur le trading quantitatif. Jusqu'en juin 2022, ils se sont consacrés à la création de systèmes de trading quantitatif de niveau institutionnel pour les actions et les cryptomonnaies. Poussée par la demande de puissance de calcul du backend du système, l'équipe a commencé à explorer le potentiel du calcul décentralisé et s'est finalement concentrée sur la question spécifique de la réduction du coût des services de calcul GPU.

Fondateur & PDG: Ahmad Shadid

Avant de fonder IO.NET, Ahmad Shadid avait travaillé dans la finance quantitative et l'ingénierie financière, et il est également bénévole à la Fondation Ethereum.

CMO & Chief Strategy Officer: Garrison Yang

Garrison Yang a officiellement rejoint IO.NET en mars 2024. Avant cela, il était vice-président de la stratégie et de la croissance chez Avalanche et est un ancien élève de l'Université de Californie, Santa Barbara.

COO: Tory Green

Tory Green est le directeur des opérations de IO.NET. Il était auparavant le directeur des opérations de Hum Capital et le directeur du développement commercial et de la stratégie chez Fox Mobile Group. Il est diplômé de l'Université Stanford.

Le profil LinkedIn de IO.NET indique que l'équipe a son siège à New York, aux États-Unis, avec un bureau secondaire à San Francisco, et emploie plus de 50 collaborateurs.

Aperçu du financement

IO.NET n'a annoncé publiquement qu'une seule levée de fonds, une série A achevée en mars de cette année avec une valorisation de 1 milliard de dollars, à travers laquelle ils ont réussi à lever 30 millions de dollars. Cette levée a été dirigée par Hack VC, avec la participation d'autres investisseurs, notamment Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures et ArkStream Capital.

Notamment, l'investissement de la Fondation Aptos pourrait avoir influencé la décision du projet BC8.AI de passer de l'utilisation de Solana pour ses processus de règlement et de comptabilité à la blockchain de couche 1 tout aussi performante, Aptos.

Estimation de la valorisation 2.4

Selon les déclarations précédentes du fondateur et PDG Ahmad Shadid, IO.NET devrait lancer son jeton d'ici la fin d'avril 2024.

IO.NET a deux projets de référence qui servent de référence pour l'évaluation : Render Network et Akash Network, tous deux étant des projets de calcul décentralisé représentatifs.

Il existe deux méthodes principales pour déduire une estimation de la capitalisation boursière de IO.NET : 1. Le ratio prix/ventes (P/S), qui compare la FDV au chiffre d'affaires ; 2. Ratio FDV/Chip (M/C Ratio)

Nous commencerons par examiner la valorisation potentielle en utilisant le ratio prix-ventes :

En examinant le ratio prix/ventes, Akash représente l'extrémité conservatrice du spectre de valorisation estimé d'IO.NET, tandis que Render fournit une référence haut de gamme, posant une FDV allant de 1,67 milliard à 5,93 milliards de dollars.

Cependant, compte tenu des mises à jour apportées au projet IO.NET, son récit plus convaincant, associé à sa capitalisation boursière initiale plus petite et à une base d’approvisionnement plus large, suggère que son FDV pourrait bien dépasser celui de Render Network.

En se tournant vers une autre perspective de comparaison de valorisation, à savoir le "ratio FDV-to-Chip".

Dans le contexte d'un marché où la demande de puissance de calcul en IA dépasse l'offre, l'élément le plus crucial des réseaux informatiques d'IA décentralisée est l'échelle de l'offre de GPU. Par conséquent, nous pouvons utiliser le "Ratio FDV-to-Chip", qui est le ratio de la valeur entièrement diluée du projet au nombre de puces dans le réseau, pour déduire la plage de valorisation possible de IO.NET, fournissant aux lecteurs une référence.

En utilisant le ratio marché-puce pour calculer la fourchette de valorisation d'IO.NET, nous nous situons entre 20,6 milliards et 197,5 milliards de dollars, Render Network établissant le benchmark supérieur et Akash Network l'inférieur.

Les passionnés du projet IO.NET pourraient voir cela comme une estimation très optimiste de la capitalisation boursière.

Il est important de prendre en compte le nombre important actuel de jetons en ligne pour IO.NET, stimulé par les attentes en matière de largage aérien et les activités incitatives. Le nombre réel en ligne de l'offre après le lancement officiel du projet nécessite encore une observation.

Dans l'ensemble, les évaluations dérivées du ratio prix/volume des ventes pourraient offrir des idées plus fiables.

IO.NET, construit sur Solana et agrémenté de la convergence de l'IA et de DePIN, est sur le point de lancer son jeton. L'anticipation est palpable alors que nous attendons de voir l'impact sur sa capitalisation boursière après le lancement.

Référence:

Dephi Digital: La Véritable Fusion

Galaxy: Comprendre l'intersection de la crypto et de l'IA

Déclaration :

  1. Cet article est reproduit à partir de [ panews], et les droits d'auteur appartiennent à l'auteur original [Alex Xu], si vous avez des objections à la réimpression, veuillez contacter Équipe d'apprentissage Gate , l'équipe le traitera dès que possible selon les procédures pertinentes.

  2. Avertissement : Les points de vue et opinions exprimés dans cet article ne représentent que les opinions personnelles de l'auteur et ne constituent aucun conseil en investissement.

  3. Les autres versions linguistiques de l'article sont traduites par l'équipe Gate Learn et ne sont pas mentionnées dans Gate.io, l'article traduit ne peut être reproduit, distribué ou plagié.

即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!