Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.
Les opportunités de Web3 dans l'industrie de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue traîne à travers les données, le stockage et le calcul ( ; tout en établissant des modèles open source et un marché décentralisé pour les agents IA.
L'IA est principalement utilisée dans l'industrie Web3 pour les paiements cryptographiques en chaîne), le trading, l'analyse de données( et l'assistance au développement.
L'utilité de l'IA+Web3 réside dans la complémentarité des deux : Web3 a le potentiel de lutter contre la centralisation de l'IA, tandis que l'IA peut aider Web3 à briser les barrières.
Introduction
Au cours des deux dernières années, le développement de l'IA a semblé être mis sur un bouton d'accélération. Cet effet papillon provoqué par Chatgpt a non seulement ouvert un nouveau monde pour l'intelligence artificielle générative, mais a également déclenché un courant dans le domaine du Web3.
Sous l'impulsion du concept d'IA, le financement sur le marché des cryptomonnaies, bien que ralenti, montre une reprise significative. Les médias rapportent que, rien qu'au premier semestre de 2024, 64 projets Web3+IA ont réussi à lever des fonds, et le système d'exploitation basé sur l'intelligence artificielle Zyber365 a atteint un montant de financement record de 100 millions de dollars lors de sa série A.
Le marché secondaire est encore plus prospère. Les données des sites d'agrégation de crypto-monnaies montrent qu'en un peu plus d'un an, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume de transactions sur 24 heures proche de 8,6 milliards de dollars ; les avancées technologiques majeures en IA apportent des bénéfices évidents, après la publication du modèle Sora d'OpenAI pour convertir du texte en vidéo, le prix moyen du secteur de l'IA a augmenté de 151 % ; l'effet IA s'étend également à l'un des segments les plus attractifs de la crypto-monnaie, les Memes : le premier concept de MemeCoin de l'Agent IA - GOAT a rapidement gagné en popularité et a atteint une valorisation de 1,4 milliard de dollars, déclenchant ainsi une vague de Memes IA.
La recherche et les sujets sur l'IA + Web3 sont également très en vogue, passant de l'IA + DePIN à l'IA Memecoin, puis aux agents IA et aux DAO IA actuels, l'émotion FOMO ne peut clairement plus suivre la vitesse de rotation des nouvelles narrations.
AI+Web3, cette combinaison de termes remplie d'argent facile, de tendances et de fantasmes futurs, est inévitablement perçue comme un mariage arrangé par le capital. Il semble que nous ayons du mal à discerner sous cette robe magnifique, s'il s'agit réellement du terrain de jeu des spéculateurs ou de la veille d'une explosion à l'aube ?
Pour répondre à cette question, une réflexion clé pour les deux parties est : est-ce que cela deviendrait mieux avec l'autre ? Peut-on bénéficier des modèles de l'autre ? Dans cet article, nous essayons également de nous appuyer sur les épaules des précurseurs pour examiner ce schéma : comment le Web3 peut-il jouer un rôle à chaque étape de l'empilement technologique de l'IA, et qu'est-ce que l'IA peut apporter de nouveau au Web3 ?
![AI+Web3 : Tours et places])https://img-cdn.gateio.im/webp-social/moments-25bce79fdc74e866d6663cf31b15ee55.webp(
Part.1 Quelles sont les opportunités de Web3 sous la pile AI ?
Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :
Exprimer l'ensemble du processus dans un langage plus simple : un « grand modèle » est comme le cerveau humain. À ses débuts, ce cerveau appartient à un bébé qui vient juste de naître et qui doit observer et ingérer une quantité massive d'informations externes pour comprendre le monde. C'est la phase de « collecte » des données. Étant donné que les ordinateurs ne possèdent pas plusieurs sens humains, comme la vision ou l'audition, avant l'entraînement, les vastes informations non étiquetées du monde extérieur doivent être converties par « prétraitement » en un format d'information compréhensible et utilisable par l'ordinateur.
Après avoir saisi les données, l'IA a construit un modèle capable de compréhension et de prédiction grâce à un « entraînement », ce qui peut être considéré comme le processus par lequel un bébé commence à comprendre et à apprendre sur le monde extérieur. Les paramètres du modèle sont semblables aux capacités linguistiques d'un bébé qui s'ajustent continuellement au cours de son apprentissage. Lorsque le contenu étudié commence à être subdivisé en domaines, ou lorsque des échanges avec des personnes fournissent des retours et des corrections, cela entre dans la phase de « réglage fin » du grand modèle.
À mesure que les enfants grandissent et apprennent à parler, ils peuvent comprendre le sens et exprimer leurs sentiments et pensées dans de nouvelles conversations. Cette phase est similaire au « raisonnement » des grands modèles d'IA, qui peuvent prédire et analyser de nouvelles entrées linguistiques et textuelles. Les bébés expriment leurs sentiments, décrivent des objets et résolvent divers problèmes grâce à leur capacité linguistique, ce qui est également similaire à la phase de raisonnement des grands modèles d'IA après leur entraînement et leur mise en service dans diverses tâches spécifiques, telles que la classification d'images, la reconnaissance vocale, etc.
L'agent IA s'oriente vers la prochaine forme des grands modèles - capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, il possède non seulement des capacités de réflexion, mais peut également mémoriser, planifier, et utiliser des outils pour interagir avec le monde.
Actuellement, face aux points de douleur de l'IA dans diverses piles, le Web3 a commencé à former un écosystème multi-niveaux et interconnecté, couvrant toutes les étapes du processus des modèles d'IA.
![AI+Web3 : Tours et places])https://img-cdn.gateio.im/webp-social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4.webp(
) Une, couche de base : Airbnb pour la puissance de calcul et les données
Puissance de calcul
Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner et inférer des modèles.
Un exemple est qu'un grand modèle de langage d'une entreprise technologique nécessite 16 000 GPU haut de gamme fabriqués par un certain fabricant de GPU pendant 30 jours pour terminer l'entraînement. Le prix unitaire de la version 80 Go se situe entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel informatique de 400 à 700 millions de dollars ###GPU+puces réseau(. En outre, l'entraînement mensuel nécessite la consommation de 1,6 milliard de kilowattheures, les dépenses énergétiques atteignant près de 20 millions de dollars par mois.
La décompression de la puissance de calcul AI est en effet l'un des premiers domaines de croisement entre le Web3 et l'IA - le réseau d'infrastructure physique décentralisé DePIN). Actuellement, des sites de données connexes ont déjà répertorié plus de 1400 projets, parmi lesquels les projets représentatifs de partage de puissance GPU incluent plusieurs plateformes réputées.
La logique principale réside dans le fait que la plateforme permet aux particuliers ou entités possédant des ressources GPU inutilisées de contribuer à leur capacité de calcul de manière décentralisée et sans autorisation, à travers un marché en ligne pour acheteurs et vendeurs similaire à Uber ou Airbnb, améliorant ainsi le taux d'utilisation des ressources GPU sous-utilisées. Les utilisateurs finaux bénéficient également de ressources de calcul efficaces à moindre coût ; en même temps, le mécanisme de mise en jeu garantit que si des violations des mécanismes de contrôle de la qualité ou des interruptions du réseau se produisent, les fournisseurs de ressources subissent les pénalités correspondantes.
Ses caractéristiques sont :
Rassembler les ressources GPU inutilisées : les fournisseurs sont principalement des centres de données indépendants de petite et moyenne taille, des opérateurs de surplus de puissance de calcul de mines de cryptomonnaie, etc., avec un matériel de minage basé sur le mécanisme de consensus PoS, tel que les mineurs de FileCoin et d'ETH. Actuellement, certains projets s'efforcent de lancer des dispositifs avec des seuils d'entrée plus bas, comme l'utilisation de MacBook, iPhone, iPad et d'autres appareils locaux pour établir un réseau de puissance de calcul pour l'inférence de modèles de grande taille.
Face au marché long tail de la puissance de calcul AI :
a. "Du point de vue technique", le marché de la puissance de calcul décentralisée est plus adapté aux étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données offerte par des GPU de très grande taille, tandis que l'inférence nécessite des performances de calcul GPU relativement plus faibles, comme certaines plateformes qui se concentrent sur des travaux de rendu à faible latence et des applications d'inférence AI.
b. Du côté de la demande, les petits et moyens utilisateurs de puissance de calcul ne formeront pas leur propre grand modèle, mais choisiront plutôt d'optimiser et d'affiner autour de quelques grands modèles principaux, et ces scénarios sont naturellement adaptés aux ressources de puissance de calcul inutilisées distribuées.
Propriété décentralisée : La signification technique de la blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle sur leurs ressources, ajustant de manière flexible en fonction de la demande, tout en réalisant des bénéfices.
(# Données
Les données sont la base de l'IA. Sans données, le calcul est aussi inutile qu'une feuille flottante, et la relation entre les données et le modèle est comme le dit le proverbe "Garbage in, Garbage out", la quantité de données et la qualité des entrées déterminent la qualité de sortie finale du modèle. En ce qui concerne l'entraînement des modèles d'IA actuels, les données déterminent les capacités linguistiques, la capacité de compréhension, voire les valeurs et l'expression humanisée du modèle. Actuellement, les défis de la demande de données en IA se concentrent principalement sur les quatre aspects suivants :
Soif de données : l'entraînement des modèles d'IA dépend d'un grand volume d'entrées de données. Les informations publiques montrent qu'un certain modèle de langage, entraîné par une entreprise d'IA renommée, a atteint un nombre de paramètres de l'ordre du trillion.
Qualité des données : Avec la combinaison de l'IA et de divers secteurs, la temporalité des données, la diversité des données, la spécialisation des données de niche et l'intégration de nouvelles sources de données comme les émotions des médias sociaux posent de nouvelles exigences sur leur qualité.
Problèmes de confidentialité et de conformité : Actuellement, les différents pays et entreprises prennent progressivement conscience de l'importance des ensembles de données de qualité et commencent à imposer des restrictions sur le crawling des ensembles de données.
Coût élevé du traitement des données : volume de données important, processus de traitement complexe. Les documents publics montrent que plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.
Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :
Collecte de données : La disponibilité de données réelles collectées gratuitement s'épuise rapidement, les dépenses des entreprises d'IA pour les données augmentent d'année en année. Cependant, ces dépenses ne reviennent pas aux véritables contributeurs de données, les plateformes profitent pleinement de la création de valeur apportée par les données, comme le fait qu'une certaine plateforme sociale a généré un revenu total de 203 millions de dollars grâce à un accord de licence de données signé avec une entreprise d'IA.
Permettre aux utilisateurs qui contribuent réellement de participer à la création de valeur générée par les données, ainsi que d'obtenir des données plus privées et plus précieuses à moindre coût grâce à un réseau distribué et à des mécanismes d'incitation, est la vision du Web3.
Certaines plateformes sont une couche de données et un réseau décentralisés, permettant aux utilisateurs de contribuer en exécutant des nœuds, en offrant de la bande passante inutilisée et en relayant du trafic pour capturer des données en temps réel à travers Internet, et de recevoir des récompenses en tokens ;
Certaines plateformes ont introduit le concept unique de pools de liquidité de données )DLP###, permettant aux utilisateurs de télécharger leurs données privées ( telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc. ) dans un DLP spécifique et de choisir de manière flexible s'ils souhaitent autoriser l'utilisation de ces données par des tiers spécifiques ;
Sur certaines plateformes, les utilisateurs peuvent utiliser des hashtags spécifiques et @ la plateforme sur les réseaux sociaux pour collecter des données.
Prétraitement des données : Dans le processus de traitement des données par l'IA, les données collectées sont souvent bruyantes et contiennent des erreurs, elles doivent donc être nettoyées et converties en un format utilisable avant d'entraîner le modèle, ce qui implique des tâches répétitives de normalisation, de filtrage et de traitement des valeurs manquantes. Cette phase est l'un des rares moments manuels de l'industrie de l'IA, ayant donné naissance à la profession de spécialiste de l'annotation des données. Avec l'exigence croissante des modèles en matière de qualité des données, le seuil d'entrée des spécialistes de l'annotation des données a également augmenté, et cette tâche est naturellement adaptée au mécanisme d'incitation décentralisé de Web3.
Actuellement, plusieurs plateformes envisagent d'intégrer cette étape clé de l'annotation des données.
Certains projets ont proposé le concept de « Train2earn », mettant l'accent sur la qualité des données, les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.
Le projet de balisage des données gamifie les tâches de balisage et permet aux utilisateurs de miser des points pour en gagner davantage.
Confidentialité et sécurité des données : Il est nécessaire de clarifier que la confidentialité des données et la sécurité des données sont deux concepts différents. La confidentialité des données concerne le traitement des données sensibles, tandis que la sécurité des données protège les informations contre l'accès, la destruction et le vol non autorisés. Ainsi, les avantages des technologies de confidentialité Web3 et les scénarios d'application potentiels se manifestent de deux manières : (1) entraînement de données sensibles ; (2) collaboration des données : plusieurs propriétaires de données peuvent participer ensemble à l'entraînement de l'IA sans avoir à partager leurs données brutes.
Les technologies de confidentialité couramment utilisées dans le Web3 incluent :
Environnement d'exécution de confiance ( TEE )
Cryptographie homomorphe complète ( FHE )
Technologie zéro connaissance ( zk ), comme certains protocoles utilisant la technologie zkTLS, génèrent une preuve zéro connaissance du trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des données d'activité, de réputation et d'identité depuis des sites externes, sans exposer d'informations sensibles.
Cependant, ce domaine en est encore à ses débuts, la plupart des projets sont encore en phase d'exploration, un des dilemmes actuels est que les coûts de calcul sont trop élevés, quelques exemples sont :
Un certain cadre zkML nécessite environ 80 minutes pour générer une preuve d'un modèle 1M-nanoGPT.
Selon les données d'un certain laboratoire, les coûts de zkML sont supérieurs de plus de 1000 fois à ceux du calcul pur.
Stockage des données : Une fois les données obtenues, il est également nécessaire d'avoir un endroit pour stocker les données sur la chaîne, ainsi que les LLM générés à partir de ces données. La disponibilité des données (DA) est au cœur du problème, avant la mise à niveau Danksharding d'Ethereum, son débit était de 0,08 Mo. En parallèle, l'entraînement des modèles d'IA et l'inférence en temps réel nécessitent généralement un débit de données de 50 à 100 Go par seconde. Cet écart d'ordre de grandeur laisse les solutions existantes sur la chaîne incapables de faire face à des "applications d'IA gourmandes en ressources".
Certaines plateformes sont des projets représentatifs de cette catégorie. Il s'agit d'une solution de stockage centralisé conçue pour répondre aux exigences de haute performance de l'IA, dont les caractéristiques clés incluent : haute
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Nouvelle ère de la fusion AI+Web3 : incitations à distribution en longue traîne et marché de modèles Open Source
AI+Web3 : Tours et places
Résumé des points clés
Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.
Les opportunités de Web3 dans l'industrie de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue traîne à travers les données, le stockage et le calcul ( ; tout en établissant des modèles open source et un marché décentralisé pour les agents IA.
L'IA est principalement utilisée dans l'industrie Web3 pour les paiements cryptographiques en chaîne), le trading, l'analyse de données( et l'assistance au développement.
L'utilité de l'IA+Web3 réside dans la complémentarité des deux : Web3 a le potentiel de lutter contre la centralisation de l'IA, tandis que l'IA peut aider Web3 à briser les barrières.
Introduction
Au cours des deux dernières années, le développement de l'IA a semblé être mis sur un bouton d'accélération. Cet effet papillon provoqué par Chatgpt a non seulement ouvert un nouveau monde pour l'intelligence artificielle générative, mais a également déclenché un courant dans le domaine du Web3.
Sous l'impulsion du concept d'IA, le financement sur le marché des cryptomonnaies, bien que ralenti, montre une reprise significative. Les médias rapportent que, rien qu'au premier semestre de 2024, 64 projets Web3+IA ont réussi à lever des fonds, et le système d'exploitation basé sur l'intelligence artificielle Zyber365 a atteint un montant de financement record de 100 millions de dollars lors de sa série A.
Le marché secondaire est encore plus prospère. Les données des sites d'agrégation de crypto-monnaies montrent qu'en un peu plus d'un an, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume de transactions sur 24 heures proche de 8,6 milliards de dollars ; les avancées technologiques majeures en IA apportent des bénéfices évidents, après la publication du modèle Sora d'OpenAI pour convertir du texte en vidéo, le prix moyen du secteur de l'IA a augmenté de 151 % ; l'effet IA s'étend également à l'un des segments les plus attractifs de la crypto-monnaie, les Memes : le premier concept de MemeCoin de l'Agent IA - GOAT a rapidement gagné en popularité et a atteint une valorisation de 1,4 milliard de dollars, déclenchant ainsi une vague de Memes IA.
La recherche et les sujets sur l'IA + Web3 sont également très en vogue, passant de l'IA + DePIN à l'IA Memecoin, puis aux agents IA et aux DAO IA actuels, l'émotion FOMO ne peut clairement plus suivre la vitesse de rotation des nouvelles narrations.
AI+Web3, cette combinaison de termes remplie d'argent facile, de tendances et de fantasmes futurs, est inévitablement perçue comme un mariage arrangé par le capital. Il semble que nous ayons du mal à discerner sous cette robe magnifique, s'il s'agit réellement du terrain de jeu des spéculateurs ou de la veille d'une explosion à l'aube ?
Pour répondre à cette question, une réflexion clé pour les deux parties est : est-ce que cela deviendrait mieux avec l'autre ? Peut-on bénéficier des modèles de l'autre ? Dans cet article, nous essayons également de nous appuyer sur les épaules des précurseurs pour examiner ce schéma : comment le Web3 peut-il jouer un rôle à chaque étape de l'empilement technologique de l'IA, et qu'est-ce que l'IA peut apporter de nouveau au Web3 ?
![AI+Web3 : Tours et places])https://img-cdn.gateio.im/webp-social/moments-25bce79fdc74e866d6663cf31b15ee55.webp(
Part.1 Quelles sont les opportunités de Web3 sous la pile AI ?
Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :
Exprimer l'ensemble du processus dans un langage plus simple : un « grand modèle » est comme le cerveau humain. À ses débuts, ce cerveau appartient à un bébé qui vient juste de naître et qui doit observer et ingérer une quantité massive d'informations externes pour comprendre le monde. C'est la phase de « collecte » des données. Étant donné que les ordinateurs ne possèdent pas plusieurs sens humains, comme la vision ou l'audition, avant l'entraînement, les vastes informations non étiquetées du monde extérieur doivent être converties par « prétraitement » en un format d'information compréhensible et utilisable par l'ordinateur.
Après avoir saisi les données, l'IA a construit un modèle capable de compréhension et de prédiction grâce à un « entraînement », ce qui peut être considéré comme le processus par lequel un bébé commence à comprendre et à apprendre sur le monde extérieur. Les paramètres du modèle sont semblables aux capacités linguistiques d'un bébé qui s'ajustent continuellement au cours de son apprentissage. Lorsque le contenu étudié commence à être subdivisé en domaines, ou lorsque des échanges avec des personnes fournissent des retours et des corrections, cela entre dans la phase de « réglage fin » du grand modèle.
À mesure que les enfants grandissent et apprennent à parler, ils peuvent comprendre le sens et exprimer leurs sentiments et pensées dans de nouvelles conversations. Cette phase est similaire au « raisonnement » des grands modèles d'IA, qui peuvent prédire et analyser de nouvelles entrées linguistiques et textuelles. Les bébés expriment leurs sentiments, décrivent des objets et résolvent divers problèmes grâce à leur capacité linguistique, ce qui est également similaire à la phase de raisonnement des grands modèles d'IA après leur entraînement et leur mise en service dans diverses tâches spécifiques, telles que la classification d'images, la reconnaissance vocale, etc.
L'agent IA s'oriente vers la prochaine forme des grands modèles - capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, il possède non seulement des capacités de réflexion, mais peut également mémoriser, planifier, et utiliser des outils pour interagir avec le monde.
Actuellement, face aux points de douleur de l'IA dans diverses piles, le Web3 a commencé à former un écosystème multi-niveaux et interconnecté, couvrant toutes les étapes du processus des modèles d'IA.
![AI+Web3 : Tours et places])https://img-cdn.gateio.im/webp-social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4.webp(
) Une, couche de base : Airbnb pour la puissance de calcul et les données
Puissance de calcul
Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner et inférer des modèles.
Un exemple est qu'un grand modèle de langage d'une entreprise technologique nécessite 16 000 GPU haut de gamme fabriqués par un certain fabricant de GPU pendant 30 jours pour terminer l'entraînement. Le prix unitaire de la version 80 Go se situe entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel informatique de 400 à 700 millions de dollars ###GPU+puces réseau(. En outre, l'entraînement mensuel nécessite la consommation de 1,6 milliard de kilowattheures, les dépenses énergétiques atteignant près de 20 millions de dollars par mois.
La décompression de la puissance de calcul AI est en effet l'un des premiers domaines de croisement entre le Web3 et l'IA - le réseau d'infrastructure physique décentralisé DePIN). Actuellement, des sites de données connexes ont déjà répertorié plus de 1400 projets, parmi lesquels les projets représentatifs de partage de puissance GPU incluent plusieurs plateformes réputées.
La logique principale réside dans le fait que la plateforme permet aux particuliers ou entités possédant des ressources GPU inutilisées de contribuer à leur capacité de calcul de manière décentralisée et sans autorisation, à travers un marché en ligne pour acheteurs et vendeurs similaire à Uber ou Airbnb, améliorant ainsi le taux d'utilisation des ressources GPU sous-utilisées. Les utilisateurs finaux bénéficient également de ressources de calcul efficaces à moindre coût ; en même temps, le mécanisme de mise en jeu garantit que si des violations des mécanismes de contrôle de la qualité ou des interruptions du réseau se produisent, les fournisseurs de ressources subissent les pénalités correspondantes.
Ses caractéristiques sont :
Rassembler les ressources GPU inutilisées : les fournisseurs sont principalement des centres de données indépendants de petite et moyenne taille, des opérateurs de surplus de puissance de calcul de mines de cryptomonnaie, etc., avec un matériel de minage basé sur le mécanisme de consensus PoS, tel que les mineurs de FileCoin et d'ETH. Actuellement, certains projets s'efforcent de lancer des dispositifs avec des seuils d'entrée plus bas, comme l'utilisation de MacBook, iPhone, iPad et d'autres appareils locaux pour établir un réseau de puissance de calcul pour l'inférence de modèles de grande taille.
Face au marché long tail de la puissance de calcul AI :
a. "Du point de vue technique", le marché de la puissance de calcul décentralisée est plus adapté aux étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données offerte par des GPU de très grande taille, tandis que l'inférence nécessite des performances de calcul GPU relativement plus faibles, comme certaines plateformes qui se concentrent sur des travaux de rendu à faible latence et des applications d'inférence AI.
b. Du côté de la demande, les petits et moyens utilisateurs de puissance de calcul ne formeront pas leur propre grand modèle, mais choisiront plutôt d'optimiser et d'affiner autour de quelques grands modèles principaux, et ces scénarios sont naturellement adaptés aux ressources de puissance de calcul inutilisées distribuées.
(# Données
Les données sont la base de l'IA. Sans données, le calcul est aussi inutile qu'une feuille flottante, et la relation entre les données et le modèle est comme le dit le proverbe "Garbage in, Garbage out", la quantité de données et la qualité des entrées déterminent la qualité de sortie finale du modèle. En ce qui concerne l'entraînement des modèles d'IA actuels, les données déterminent les capacités linguistiques, la capacité de compréhension, voire les valeurs et l'expression humanisée du modèle. Actuellement, les défis de la demande de données en IA se concentrent principalement sur les quatre aspects suivants :
Soif de données : l'entraînement des modèles d'IA dépend d'un grand volume d'entrées de données. Les informations publiques montrent qu'un certain modèle de langage, entraîné par une entreprise d'IA renommée, a atteint un nombre de paramètres de l'ordre du trillion.
Qualité des données : Avec la combinaison de l'IA et de divers secteurs, la temporalité des données, la diversité des données, la spécialisation des données de niche et l'intégration de nouvelles sources de données comme les émotions des médias sociaux posent de nouvelles exigences sur leur qualité.
Problèmes de confidentialité et de conformité : Actuellement, les différents pays et entreprises prennent progressivement conscience de l'importance des ensembles de données de qualité et commencent à imposer des restrictions sur le crawling des ensembles de données.
Coût élevé du traitement des données : volume de données important, processus de traitement complexe. Les documents publics montrent que plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.
Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :
Permettre aux utilisateurs qui contribuent réellement de participer à la création de valeur générée par les données, ainsi que d'obtenir des données plus privées et plus précieuses à moindre coût grâce à un réseau distribué et à des mécanismes d'incitation, est la vision du Web3.
Certaines plateformes sont une couche de données et un réseau décentralisés, permettant aux utilisateurs de contribuer en exécutant des nœuds, en offrant de la bande passante inutilisée et en relayant du trafic pour capturer des données en temps réel à travers Internet, et de recevoir des récompenses en tokens ;
Certaines plateformes ont introduit le concept unique de pools de liquidité de données )DLP###, permettant aux utilisateurs de télécharger leurs données privées ( telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc. ) dans un DLP spécifique et de choisir de manière flexible s'ils souhaitent autoriser l'utilisation de ces données par des tiers spécifiques ;
Sur certaines plateformes, les utilisateurs peuvent utiliser des hashtags spécifiques et @ la plateforme sur les réseaux sociaux pour collecter des données.
Actuellement, plusieurs plateformes envisagent d'intégrer cette étape clé de l'annotation des données.
Certains projets ont proposé le concept de « Train2earn », mettant l'accent sur la qualité des données, les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.
Le projet de balisage des données gamifie les tâches de balisage et permet aux utilisateurs de miser des points pour en gagner davantage.
Les technologies de confidentialité couramment utilisées dans le Web3 incluent :
Environnement d'exécution de confiance ( TEE )
Cryptographie homomorphe complète ( FHE )
Technologie zéro connaissance ( zk ), comme certains protocoles utilisant la technologie zkTLS, génèrent une preuve zéro connaissance du trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des données d'activité, de réputation et d'identité depuis des sites externes, sans exposer d'informations sensibles.
Cependant, ce domaine en est encore à ses débuts, la plupart des projets sont encore en phase d'exploration, un des dilemmes actuels est que les coûts de calcul sont trop élevés, quelques exemples sont :
Un certain cadre zkML nécessite environ 80 minutes pour générer une preuve d'un modèle 1M-nanoGPT.
Selon les données d'un certain laboratoire, les coûts de zkML sont supérieurs de plus de 1000 fois à ceux du calcul pur.