Galaxy Digital: Explorer l'intersection de la cryptomonnaie et de l'IA

Intermédiaire2/28/2024, 4:55:32 AM
Cet article explore l'intersection de la cryptomonnaie et de l'intelligence artificielle, mettant en lumière l'émergence des blockchains publiques comme l'une des avancées les plus profondes de l'histoire de l'informatique. Il discute de l'impact significatif que le développement de l'IA a déjà sur notre monde.

Introduction

L'émergence des blockchains publiques marque une avancée profonde dans l'histoire de l'informatique, tandis que le développement de l'intelligence artificielle a un impact significatif sur notre monde. La technologie blockchain offre de nouveaux modèles pour le règlement des transactions, le stockage de données et la conception de systèmes, tandis que l'intelligence artificielle représente une révolution dans le calcul, l'analyse et la diffusion de contenu. Les innovations dans ces industries libèrent de nouveaux cas d'utilisation qui pourraient accélérer l'adoption des deux secteurs dans les années à venir. Ce rapport examine l'intégration continue de la cryptomonnaie et de l'intelligence artificielle, en mettant l'accent sur de nouveaux cas d'utilisation visant à combler le fossé entre les deux et à exploiter leurs forces. Il se penche spécifiquement sur les projets développant des protocoles de calcul décentralisés, une infrastructure d'apprentissage automatique à connaissance nulle (zkML) et des agents d'IA.

Les cryptomonnaies offrent une couche de règlement sans autorisation, sans confiance et composite pour l'IA, débloquant des cas d'utilisation tels que un accès plus facile au matériel grâce à des systèmes informatiques décentralisés, la construction d'agents d'IA capables d'exécuter des tâches complexes nécessitant un échange de valeur, et le développement de solutions d'identité et de provenance pour contrer les attaques Sybil et les deepfakes. L'IA apporte aux cryptomonnaies bon nombre des mêmes avantages observés dans le Web 2.0, y compris des expériences utilisateur et développeur améliorées grâce à de grands modèles de langage comme ChatGPT et Copilot, ainsi qu'un potentiel de fonctionnalité et d'automatisation considérablement amélioré pour les contrats intelligents. La blockchain fournit l'environnement transparent et riche en données nécessaire à l'IA, bien que la puissance de calcul limitée de la blockchain constitue un obstacle majeur à l'intégration directe des modèles d'IA.

Les expériences et l'adoption finale dans le croisement de la cryptomonnaie et de l'IA sont motivées par les mêmes forces qui animent les cas d'utilisation les plus prometteurs pour la cryptomonnaie: l'accès à une couche de coordination sans permission et sans confiance, facilitant un meilleur transfert de valeur. Étant donné le vaste potentiel, les parties prenantes de ce domaine doivent comprendre les façons fondamentales dont ces technologies se croisent.

Points clés :

    • Dans un avenir proche (6 mois à 1 an), l'intégration de la cryptomonnaie et de l'IA sera dominée par des applications d'IA qui améliorent l'efficacité des développeurs, l'auditabilité et la sécurité des contrats intelligents, ainsi que l'accessibilité des utilisateurs. Ces intégrations ne sont pas spécifiques à la cryptomonnaie mais améliorent l'expérience des développeurs et des utilisateurs on-chain.
    • Comme les GPU haute performance restent rares, les produits de calcul décentralisés mettent en œuvre des produits GPU personnalisés pour l'IA afin de stimuler l'adoption.
    • L'expérience utilisateur et les obstacles réglementaires restent des obstacles à l'attraction des clients de l'informatique décentralisée. Cependant, les récents développements d'OpenAI et les examens réglementaires en cours aux États-Unis mettent en lumière la proposition de valeur des réseaux d'IA décentralisés, sans permission, résistants à la censure.
    • L'intégration de l'IA on-chain, en particulier les contrats intelligents capables d'utiliser des modèles d'IA, nécessite des améliorations de la technologie zkML et d'autres méthodes pour vérifier les calculs hors chaîne. Un manque d'outils complets, de talents de développement et des coûts élevés constituent des obstacles à l'adoption.
    • Les agents d'IA sont bien adaptés aux cryptomonnaies, où les utilisateurs (ou les agents eux-mêmes) peuvent créer des portefeuilles pour effectuer des transactions avec d'autres services, des agents ou des particuliers - une capacité impossible avec les réseaux financiers traditionnels. Une intégration supplémentaire avec des produits non cryptographiques est nécessaire pour une adoption plus large.

Termes

L'intelligence artificielle est l'utilisation de calcul et de machines pour imiter le raisonnement et les capacités de résolution de problèmes des humains.

Les réseaux neuronaux sont une méthode de formation des modèles d'intelligence artificielle. Ils font passer les entrées à travers des couches algorithmiques discrètes, les affinant jusqu'à ce que la sortie désirée soit produite. Les réseaux neuronaux se composent d'équations avec des poids qui peuvent être ajustés pour changer la sortie. Ils peuvent nécessiter des données et des calculs approfondis pour la formation afin de garantir des sorties précises. Il s'agit de l'une des façons les plus courantes de développer des modèles d'IA (par exemple, ChatGPT repose sur un processus de réseau neuronal basé sur les Transformers).

La formation est le processus de développement de réseaux neuronaux et d'autres modèles d'IA. Il nécessite une quantité significative de données pour former les modèles à interpréter correctement les entrées et produire des sorties précises. Pendant la formation, les poids de l'équation du modèle sont continuellement modifiés jusqu'à ce qu'une sortie satisfaisante soit produite. La formation peut être très coûteuse. Par exemple, ChatGPT utilise des dizaines de milliers de ses propres GPU pour traiter les données. Les équipes avec moins de ressources se reposent souvent sur des fournisseurs de calcul spécialisés, tels que Amazon Web Services, Azure, et les fournisseurs de Google Cloud.

L'inférence est l'utilisation réelle des modèles d'IA pour obtenir des sorties ou des résultats (par exemple, en utilisant ChatGPT pour créer un plan pour un document sur l'intersection de la cryptomonnaie et de l'IA). L'inférence est utilisée tout au long du processus de formation et dans le produit final. En raison des coûts de calcul, même après la fin de la formation, leurs coûts opérationnels peuvent être élevés, bien que leur intensité de calcul soit inférieure à celle de la formation.

Les preuves de connaissance nulle (ZKP) permettent la vérification des déclarations sans révéler les informations sous-jacentes. Cela est utile dans la cryptomonnaie pour deux raisons principales : 1) la confidentialité et 2) la mise à l'échelle. En ce qui concerne la confidentialité, elle permet aux utilisateurs d'effectuer des transactions sans révéler d'informations sensibles (par exemple, le montant d'ETH dans un portefeuille). En ce qui concerne la mise à l'échelle, elle permet aux calculs hors chaîne d'être prouvés sur chaîne plus rapidement que de réexécuter les calculs. Cela permet aux blockchains et aux applications d'exécuter à moindre coût des calculs hors chaîne, puis de les vérifier sur chaîne. Pour plus d'informations sur la preuve de connaissance nulle et son rôle dans les machines virtuelles Ethereum, consultez le rapport de Christine Kim sur les zkEVM : l'avenir de la mise à l'échelle d'Ethereum.

Carte du marché de l'IA/Cryptomonnaie

Les projets intégrant l’intelligence artificielle et la crypto-monnaie sont toujours en train de construire l’infrastructure sous-jacente nécessaire pour prendre en charge les interactions d’IA on-chain à grande échelle.

Les marchés de calcul décentralisé émergent pour fournir le vaste matériel physique nécessaire pour former et déduire des modèles d'IA, principalement sous forme d'unités de traitement graphique (GPU). Ces marchés à deux faces connectent ceux qui louent et cherchent à louer des capacités de calcul, facilitant le transfert de valeur et la vérification des calculs. Au sein du calcul décentralisé, plusieurs sous-catégories offrant des fonctionnalités supplémentaires sont en train d'émerger. Outre les marchés bilatéraux, ce rapport examine également les fournisseurs de formation en apprentissage automatique qui offrent une formation vérifiable et un ajustement fin des sorties, ainsi que des projets dédiés à la liaison entre calcul et génération de modèles pour permettre l'IA, souvent appelés réseaux d'incitation intelligents.

zkML est un domaine d'intérêt émergent pour les projets visant à fournir des sorties de modèle vérifiables on-chain de manière économiquement viable et en temps voulu. Ces projets permettent principalement aux applications de gérer les demandes de calcul intensif hors chaîne, puis de publier des sorties vérifiables on-chain, prouvant que la charge de travail hors chaîne était complète et précise. zkML est actuellement à la fois coûteux et long, mais est de plus en plus utilisé comme solution. Cela se manifeste dans le nombre croissant d'intégrations entre les fournisseurs de zkML et les applications DeFi / gaming souhaitant tirer parti des modèles d'IA.

L’offre abondante de calcul et la possibilité de vérifier le calcul on-chain ouvrent la porte aux agents d’IA on-chain. Les agents sont des modèles entraînés capables d’exécuter des requêtes pour le compte des utilisateurs. Les agents offrent la possibilité d’améliorer considérablement l’expérience on-chain, en permettant aux utilisateurs d’exécuter des transactions complexes simplement en conversant avec un chatbot. Cependant, à l’heure actuelle, les projets d’agents sont toujours axés sur le développement de l’infrastructure et des outils pour un déploiement facile et rapide.

Calcul décentralisé

Aperçu

L'intelligence artificielle nécessite une computation étendue pour entraîner des modèles et exécuter des inférences. Au cours de la dernière décennie, à mesure que les modèles sont devenus de plus en plus complexes, la demande en computation a augmenté de manière exponentielle. Par exemple, OpenAI a observé qu'entre 2012 et 2018, la demande en computation de ses modèles doublait tous les deux ans, passant à doubler tous les trois mois et demi. Cela a entraîné une explosion de la demande en GPU, certains mineurs de cryptomonnaie réaffectant même leurs GPU pour fournir des services de cloud computing. Alors que la concurrence pour l'accès à la computation s'intensifie et que les coûts augmentent, certains projets exploitent la technologie cryptographique pour offrir des solutions de computation décentralisée. Ils proposent de la computation à la demande à des prix compétitifs, permettant aux équipes de former et exécuter des modèles à un coût abordable. Dans certains cas, les compromis peuvent concerner les performances et la sécurité.

La demande de GPU de pointe (par exemple, ceux produits par Nvidia) est importante. En septembre, Tether a acquis une participation dans le mineur de Bitcoin allemand Northern Data, dépensant apparemment 420 millions de dollars pour acheter 10 000 GPU H100 (l'un des GPU les plus avancés pour la formation à l'IA). Le délai d'attente pour acquérir du matériel de premier ordre peut être d'au moins six mois, voire plus dans de nombreux cas. De plus, les entreprises sont souvent tenues de signer des contrats à long terme pour sécuriser des volumes de calcul qu'elles pourraient même ne pas utiliser. Cela peut conduire à des situations où les ressources de calcul sont disponibles mais pas accessibles sur le marché. Les systèmes informatiques décentralisés aident à résoudre ces inefficacités du marché en créant un marché secondaire où les propriétaires de calcul peuvent immédiatement sous-louer leur capacité excédentaire sur notification, libérant ainsi une nouvelle offre.

Au-delà de la tarification compétitive et de l'accessibilité, une proposition de valeur clé de l'informatique décentralisée est la résistance à la censure. Le développement de l'IA de pointe est de plus en plus dominé par de grandes entreprises technologiques aux capacités de calcul et d'accès aux données inégalées. Le premier thème clé mis en avant dans le Rapport annuel 2023 de l'Indice de l'IA était le dépassement croissant de l'université par l'industrie dans le développement des modèles d'IA, concentrant le contrôle entre les mains de quelques leaders technologiques. Cela soulève des préoccupations quant à leur potentiel à exercer une influence significative dans l'établissement des normes et des valeurs sous-tendant les modèles d'IA, surtout après que ces entreprises technologiques poussent à des réglementations pour limiter le développement incontrôlable de l'IA.

Domaines dans l'informatique décentralisée

Plusieurs modèles de calcul décentralisé ont émergé ces dernières années, chacun avec son propre focus et compromis.

Calcul généralisé

D’une manière générale, des projets tels qu’Akash, io.net, iExec et Cudos sont des applications de l’informatique décentralisée, offrant au-delà des données et des solutions de calcul générales, un accès à des calculs spécialisés pour l’entraînement et l’inférence de l’IA. Akash se distingue comme la seule plate-forme « super cloud » entièrement open-source, utilisant le SDK Cosmos pour son réseau de preuve d’enjeu. AKT, le jeton natif d’Akash, sert de méthode de paiement pour sécuriser le réseau et inciter à la participation. Lancé en 2020, le réseau principal d’Akash s’est initialement concentré sur un marché de cloud computing sans permission, proposant des services de stockage et de location de processeurs. En juin 2023, Akash a introduit un réseau de test centré sur le GPU, suivi d’un lancement du réseau principal GPU en septembre, permettant l’entraînement de l’IA et la location de GPU par inférence.

L'écosystème Akash comprend deux participants principaux : les locataires, qui recherchent des ressources informatiques, et les fournisseurs, les fournisseurs de calcul. Un processus d'enchères inversées facilite la mise en relation des locataires et des fournisseurs, où les locataires publient leurs besoins en matière de calcul, y compris les emplacements de serveurs préférés ou les types de matériel et leur budget. Les fournisseurs soumissionnent ensuite, le moins offrant se voyant attribuer la tâche. Les validateurs maintiennent l'intégrité du réseau, avec un plafond actuel de 100 validateurs, prévu d'augmenter avec le temps. La participation en tant que validateur est ouverte à ceux qui misent plus d'AKT que le validateur actuel le moins misé. Les détenteurs d'AKT peuvent déléguer leurs jetons aux validateurs, les frais de transaction et les récompenses de bloc étant distribués en AKT. De plus, pour chaque bail, le réseau Akash gagne un "taux de prise", décidé par la communauté, distribué aux détenteurs d'AKT.

Marché secondaire

Le marché secondaire de l’informatique décentralisée vise à remédier aux inefficacités du marché informatique existant, où les contraintes d’approvisionnement conduisent les entreprises à accumuler des ressources au-delà de leurs besoins et où les contrats à long terme avec les fournisseurs de cloud limitent davantage l’offre. Les plates-formes informatiques décentralisées débloquent de nouvelles offres, permettant à toute personne ayant des besoins informatiques de devenir un fournisseur.

Que la forte demande de GPU pour l'entraînement en IA se traduise par une utilisation soutenue du réseau sur Akash reste à voir. Historiquement, Akash a proposé des services de marché basés sur le CPU avec une remise de 70 à 80 % par rapport aux alternatives centralisées, pourtant cette stratégie de tarification n'a pas entraîné une adoption significative. L'activité du réseau, mesurée par les baux actifs, a atteint un plateau, avec en moyenne 33 % de calcul, 16 % de mémoire et 13 % d'utilisation du stockage d'ici le deuxième trimestre 2023, impressionnant pour une adoption on-chain mais révélateur d'une offre toujours supérieure à la demande. Six mois après le lancement du réseau GPU, il est encore trop tôt pour évaluer définitivement l'adoption à long terme, bien que les premiers signes montrent une utilisation moyenne de 44 % des GPU, principalement due à la demande de GPU de haute qualité comme l'A100, dont plus de 90 % ont été loués.

Les dépenses quotidiennes d'Akash ont presque doublé depuis l'introduction des GPU, attribuées en partie à une utilisation accrue d'autres services, en particulier les CPUs, mais principalement en raison de la nouvelle utilisation des GPU.

Les tarifs sont compétitifs, voire dans certains cas plus chers que les homologues centralisés tels que Lambda Cloud et Vast.ai. La forte demande de GPU haut de gamme, tels que le H100 et le A100, signifie que la plupart des propriétaires de ces équipements ne sont pas intéressés à les répertorier sur un marché à prix compétitif.

Malgré les profits initiaux, des obstacles à l'adoption subsistent. Les réseaux informatiques décentralisés doivent prendre des mesures supplémentaires pour générer la demande et l'offre, les équipes explorant la meilleure façon d'attirer de nouveaux utilisateurs. Par exemple, début 2024, Akash a adopté la Proposition 240, augmentant l'émission de AKT pour les fournisseurs de GPU afin d'inciter à une offre plus importante, notamment pour les GPU haut de gamme. Les équipes travaillent également sur des modèles de preuve de concept pour démontrer les capacités en direct de leurs réseaux aux utilisateurs potentiels. Akash forme ses modèles fondamentaux et a lancé des produits de chatbot et de génération d'images qui utilisent les GPU Akash. De même, io.net a développé un modèle de diffusion stable et lance de nouvelles fonctionnalités réseau pour mieux émuler les performances et l'échelle du réseau.

Formation décentralisée en apprentissage automatique

En plus des plates-formes informatiques générales qui peuvent répondre aux exigences de l'intelligence artificielle, un groupe de fournisseurs professionnels de GPU pour l'IA axés sur la formation de modèles d'apprentissage automatique émerge également. Par exemple, Gensyn est en train de « coordonner la puissance et le matériel pour construire une intelligence collective », avec la philosophie que « si quelqu'un veut entraîner quelque chose et que quelqu'un est prêt à l'entraîner, alors cet entraînement devrait être autorisé à se produire. »

Ce protocole implique quatre principaux participants: les soumissionnaires, les solveurs, les validateurs et les lanceurs d'alerte. Les soumissionnaires soumettent des tâches avec des demandes de formation au réseau. Ces tâches comprennent les objectifs de formation, les modèles à former et les données de formation. Dans le cadre du processus de soumission, les soumissionnaires doivent prépayer le coût computationnel estimé requis par les solveurs.

Après la soumission, les tâches sont attribuées aux solveurs qui effectuent réellement la formation du modèle. Ensuite, les solveurs soumettent les tâches terminées aux validateurs, qui sont chargés de vérifier la formation pour s'assurer qu'elle a été correctement effectuée. Les lanceurs d'alerte sont chargés de veiller à ce que les validateurs agissent de manière honnête. Pour motiver les lanceurs d'alerte à participer au réseau, Gensyn prévoit d'offrir régulièrement des preuves délibérément incorrectes, récompensant ainsi les lanceurs d'alerte qui les repèrent.

En plus de fournir des calculs pour les charges de travail liées à l'IA, une proposition de valeur clé de Gensyn est son système de vérification, qui est encore en cours de développement. La vérification est nécessaire pour garantir que le calcul externe par les fournisseurs de GPU est exécuté correctement (c'est-à-dire garantir que les modèles des utilisateurs sont entraînés comme ils le souhaitent). Gensyn aborde ce problème avec une approche unique, utilisant des méthodes de vérification novatrices appelées « preuves d'apprentissage probabiliste, protocoles précis basés sur les graphiques et des jeux d'incitations de style Truebit ». Il s'agit d'un modèle de résolution optimiste qui permet aux validateurs de confirmer que les solveurs ont exécuté le modèle correctement sans avoir besoin de rerun entièrement le modèle eux-mêmes, un processus coûteux et inefficient.

En plus de sa méthode de vérification innovante, Gensyn affirme également être rentable par rapport aux alternatives centralisées et aux concurrents en cryptomonnaies - offrant des prix de formation ML jusqu'à 80% moins chers que AWS, tout en surpassant des projets similaires comme Truebit dans les tests.

Que ces premiers résultats puissent être reproduits à grande échelle dans des réseaux décentralisés reste à voir. Gensyn espère utiliser la capacité de calcul excédentaire de fournisseurs tels que de petits centres de données, des utilisateurs de détail, et éventuellement de petits appareils mobiles comme des smartphones. Cependant, comme l'admet lui-même l'équipe de Gensyn, le recours à des fournisseurs de calcul hétérogènes présente de nouveaux défis.

Pour les fournisseurs centralisés comme Google Cloud et Coreweave, les coûts de calcul sont élevés, mais la communication entre les calculs (bande passante et latence) est bon marché. Ces systèmes sont conçus pour faciliter la communication entre le matériel aussi rapidement que possible. Gensyn perturbe ce cadre en réduisant les coûts de calcul en permettant à quiconque dans le monde d'offrir des GPU, mais en même temps augmente les coûts de communication, car le réseau doit désormais coordonner les tâches de calcul sur des matériels hétérogènes distants. Gensyn n'a pas encore été lancé, mais il représente une preuve de concept qui pourrait être réalisée lors de la construction d'un protocole d'entraînement en apprentissage automatique décentralisé.

Intelligence générale décentralisée

Les plateformes informatiques décentralisées offrent également la possibilité de concevoir des méthodes de création d'intelligence artificielle. Bittensor est un protocole informatique décentralisé construit sur Substrate, qui tente de répondre à la question : "Comment transformons-nous l'intelligence artificielle en une méthode collaborative ?" Bittensor vise à réaliser la décentralisation et la marchandisation de la génération d'IA. Lancé en 2021, il espère utiliser la puissance de modèles collaboratifs d'apprentissage automatique pour itérer continuellement et produire de meilleures IA.

Bittensor s'inspire de Bitcoin, avec sa monnaie native, TAO, ayant une limite d'approvisionnement de 21 millions et un cycle de division par deux tous les quatre ans (la première division par deux étant prévue pour 2025). Contrairement à l'utilisation de la preuve de travail pour générer des nombres aléatoires corrects et gagner des récompenses de bloc, Bittensor repose sur la "Preuve d'Intelligence", obligeant les mineurs à exécuter des modèles pour générer des sorties en réponse aux demandes d'inférence.

Incitation à l’intelligence

Initialement, Bittensor s'appuyait sur un modèle Mixture of Experts (MoE) pour générer des sorties. Lorsqu'une demande d'inférence est soumise, le modèle MoE ne repose pas sur un modèle généralisé, mais transmet la demande au modèle le plus précis pour le type d'entrée donné. Imaginez la construction d'une maison, où vous engagez divers experts pour différents aspects du processus de construction (par exemple, architectes, ingénieurs, peintres, ouvriers du bâtiment, etc.). MoE applique cela aux modèles d'apprentissage automatique, essayant de tirer parti des sorties de différents modèles en fonction de l'entrée. Comme l'explique le fondateur de Bittensor, Ala Shaabana, c'est comme "parler à une pièce pleine de gens intelligents pour obtenir la meilleure réponse, plutôt que de parler à une seule personne." En raison des défis liés à l'assurance d'un routage correct, à la synchronisation des messages vers le modèle approprié et aux incitations, cette méthode a été mise de côté jusqu'au développement ultérieur du projet.

Dans le réseau Bittensor, il y a deux principaux participants : les validateurs et les mineurs. Les validateurs envoient des demandes d'inférence aux mineurs, examinent leurs sorties et les classent en fonction de la qualité de leurs réponses. Pour garantir que leurs classements sont fiables, les validateurs se voient attribuer un score de "vtrust" basé sur la cohérence de leurs classements avec ceux des autres validateurs. Plus le score de "vtrust" d'un validateur est élevé, plus il reçoit d'émissions de TAO. Cela vise à encourager les validateurs à parvenir à un consensus sur les classements des modèles au fil du temps, car plus les validateurs sont d'accord sur les classements, plus leurs scores de "vtrust" individuels sont élevés.

Les mineurs, également appelés serveurs, sont des participants du réseau qui exécutent les modèles d'apprentissage automatique réels. Ils se disputent pour fournir les sorties les plus précises aux requêtes des validateurs, et plus les sorties sont précises, plus ils gagnent d'émissions de TAO. Les mineurs sont libres de générer ces sorties comme ils le souhaitent. Par exemple, à l'avenir, il est tout à fait possible que les mineurs de Bittensor aient précédemment formé des modèles sur Gensyn et les utilisent pour gagner des émissions de TAO.

Aujourd'hui, la plupart des interactions se font directement entre les validateurs et les mineurs. Les validateurs soumettent des entrées aux mineurs et demandent des sorties (c'est-à-dire, l'entraînement du modèle). Une fois que les validateurs interrogent les mineurs sur le réseau et reçoivent leurs réponses, ils classent les mineurs et soumettent leurs classements au réseau.

L'interaction entre les validateurs (reposant sur PoS) et les mineurs (reposant sur Model Proof, une forme de PoW) est connue sous le nom de consensus Yuma. Il vise à inciter les mineurs à produire les meilleurs résultats pour gagner des émissions de TAO et à inciter les validateurs à classer avec précision les résultats des mineurs, en augmentant ainsi leurs scores de vtrust et leurs récompenses en TAO, formant ainsi un mécanisme de consensus pour le réseau.

Sous-réseaux et Applications

Les interactions sur Bittensor impliquent principalement que les validateurs soumettent des requêtes aux mineurs et évaluent leurs sorties. Cependant, à mesure que la qualité des mineurs contributeurs s'améliore et que l'intelligence globale du réseau augmente, Bittensor crée une couche d'application au-dessus de sa pile existante afin que les développeurs puissent construire des applications interrogeant le réseau Bittensor.

En octobre 2023, Bittensor a introduit des sous-réseaux via la mise à niveau Revolution, franchissant ainsi une étape importante vers la réalisation de cet objectif. Les sous-réseaux sont des réseaux distincts sur Bittensor qui incitent à des comportements spécifiques. La Revolution a ouvert le réseau à toute personne intéressée par la création de sous-réseaux. Dans les mois suivant son lancement, plus de 32 sous-réseaux ont été lancés, notamment des sous-réseaux pour les invitations textuelles, le scraping de données, la génération et le stockage d'images. Au fur et à mesure que les sous-réseaux se développent et deviennent prêts pour le produit, les créateurs de sous-réseaux créeront également des intégrations d'applications, permettant aux équipes de construire des applications qui interrogent des sous-réseaux spécifiques. Certaines applications, telles que des chatbots, des générateurs d'images, des bots de réponse Twitter et des marchés de prédiction, existent, mais il n'y a pas d'incitations formelles au-delà du financement de la Fondation Bittensor pour que les validateurs acceptent et transmettent ces requêtes.

Pour une explication plus claire, voici un exemple de la façon dont Bittensor pourrait fonctionner une fois que les applications sont intégrées dans le réseau.

Les sous-réseaux gagnent des TAO en fonction de leurs performances évaluées par le réseau racine. Le réseau racine, situé au-dessus de tous les sous-réseaux, agit essentiellement comme un sous-réseau spécial et est géré par les 64 plus grands validateurs de sous-réseaux en termes d'enjeu. Les validateurs du réseau racine classent les sous-réseaux en fonction de leurs performances et attribuent périodiquement des émissions de TAO aux sous-réseaux. De cette manière, les sous-réseaux individuels agissent comme des mineurs pour le réseau racine.

La vision de Bittensor

Bittensor éprouve encore des difficultés de croissance alors qu'il élargit la fonctionnalité du protocole pour inciter à la génération d'intelligence à travers plusieurs sous-réseaux. Les mineurs élaborent constamment de nouvelles façons d'attaquer le réseau pour obtenir plus de récompenses TAO, par exemple en modifiant légèrement la sortie des inférences très bien notées exécutées par leurs modèles, puis en soumettant plusieurs variantes. Les propositions de gouvernance affectant l'ensemble du réseau ne peuvent être soumises et mises en œuvre que par le Triumvirat, composé entièrement des parties prenantes de la Fondation Opentensor (notamment, les propositions nécessitent l'approbation du Sénat de Bittensor, composé des validateurs de Bittensor, avant leur mise en œuvre). La tokenomie du projet est en cours de modification pour renforcer les incitations à l'utilisation inter-sous-réseau de TAO. Le projet a également rapidement gagné en notoriété pour son approche unique, avec le PDG de l'un des sites d'IA les plus populaires, HuggingFace, affirmant que Bittensor devrait ajouter ses ressources au site.

Dans un article récent intitulé « Bittensor Paradigm » publié par les développeurs principaux, l’équipe a décrit la vision de Bittensor de devenir éventuellement « agnostique à ce qui est mesuré ». Théoriquement, cela pourrait permettre à Bittensor de développer des sous-réseaux qui incitent à tout type de comportement pris en charge par TAO. Il existe encore des limites pratiques considérables, notamment la preuve que ces réseaux peuvent évoluer pour gérer un éventail aussi diversifié de processus et que les incitations potentielles permettent de progresser au-delà des produits centralisés.

Création d’une pile informatique décentralisée pour les modèles d’intelligence artificielle

La section ci-dessus fournit un aperçu approfondi des différents types de protocoles informatiques d'intelligence artificielle (IA) décentralisée actuellement en développement. Dans leurs premières phases de développement et d'adoption, ils posent les bases d'un écosystème qui pourrait éventuellement faciliter la création de « blocs de construction d'IA », similaire au concept de « Legos monétaires » dans la DeFi. La composabilité des blockchains sans permission permet à chaque protocole d'être construit sur un autre, créant un écosystème d'IA décentralisé plus complet.
Par exemple, voici comment Akash, Gensyn et Bittensor pourraient tous interagir pour répondre aux demandes d'inférence.

Il est crucial de comprendre que ceci n'est qu'un exemple de ce qui pourrait se produire à l'avenir, et non une représentation de l'écosystème actuel, des partenariats existants ou des résultats potentiels. Les limites de l'interopérabilité et d'autres considérations décrites ci-dessous restreignent significativement les possibilités d'intégration aujourd'hui. De plus, la fragmentation de la liquidité et la nécessité d'utiliser plusieurs jetons pourraient nuire à l'expérience utilisateur, un point relevé par les fondateurs d'Akash et de Bittensor.

Autres produits décentralisés

Au-delà de l'informatique, plusieurs autres services d'infrastructure décentralisée ont été introduits pour soutenir l'écosystème émergent de l'IA dans l'espace des cryptomonnaies. Énumérer tous ces éléments dépasse le cadre de ce rapport, mais quelques exemples intéressants et illustratifs incluent :

  • Ocean: Un marché de données décentralisé où les utilisateurs peuvent créer des NFT de données représentant leurs données et les acheter en utilisant des jetons de données. Les utilisateurs peuvent monétiser leurs données et avoir une plus grande souveraineté sur celles-ci, tout en fournissant aux équipes d'IA l'accès aux données nécessaires pour le développement et l'entraînement des modèles.
  • Grass: Un marché de la bande passante décentralisé où les utilisateurs peuvent vendre leur excès de bande passante à des entreprises d'IA, qui l'utilisent pour récupérer des données sur Internet. Construit sur le réseau Wynd, cela permet aux individus de monétiser leur bande passante et offre aux acheteurs de bande passante une perspective plus diversifiée sur ce que voient les utilisateurs individuels en ligne (puisque l'accès à Internet individuel est souvent personnalisé en fonction de leur adresse IP).
  • HiveMapper : Construit un produit de cartographie décentralisé incorporant des informations collectées auprès des conducteurs quotidiens. HiveMapper s'appuie sur l'IA pour interpréter les images collectées à partir des caméras de tableau de bord des utilisateurs et récompense ces derniers avec des jetons pour les aider à peaufiner les modèles d'IA grâce à la Rétroaction d'Apprentissage Humain Renforcée (RAHR).

Dans l'ensemble, ces exemples illustrent les opportunités presque illimitées d'explorer des modèles de marché décentralisés qui soutiennent les modèles d'IA ou l'infrastructure périphérique nécessaire pour les développer. Actuellement, la plupart de ces projets en sont au stade de la preuve de concept et nécessitent des recherches et développements supplémentaires pour prouver qu'ils peuvent fonctionner à l'échelle nécessaire pour fournir des services d'IA complets.

Perspective

Les produits de calcul décentralisé en sont encore à leurs débuts. Ils viennent tout juste de lancer des capacités de calcul de pointe, capables de former les modèles d'intelligence artificielle les plus puissants en production. Pour gagner une part de marché significative, ils doivent démontrer des avantages réels par rapport aux alternatives centralisées. Les déclencheurs potentiels d'une adoption plus large comprennent :

  • Approvisionnement/Demande de GPU. La rareté des GPU combinée à une demande croissante en matière de calcul conduit à une course aux armements GPU. En raison des limitations des GPU, OpenAI a parfois restreint l'accès à sa plateforme. Des plateformes comme Akash et Gensyn peuvent offrir des alternatives compétitives en termes de coûts pour les équipes ayant besoin de calcul haute performance. Les 6 à 12 prochains mois offrent une opportunité particulièrement unique pour les fournisseurs de calcul décentralisé d'attirer de nouveaux utilisateurs contraints de considérer des produits décentralisés en raison d'un manque d'accès au marché plus large. De plus, avec l'amélioration croissante des performances des modèles open-source tels que le LLaMA2 de Meta, les utilisateurs ne sont plus confrontés aux mêmes barrières lors du déploiement de modèles affinés efficaces, faisant des ressources de calcul le principal goulot d'étranglement. Cependant, la simple existence de plateformes ne garantit pas un approvisionnement suffisant en calcul et une demande correspondante des consommateurs. L'approvisionnement en GPU haut de gamme reste un défi, et le coût n'est pas toujours le principal moteur de la demande. Ces plateformes devront relever le défi de démontrer les avantages réels de l'utilisation des options de calcul décentralisé (que ce soit en raison du coût, de la résistance à la censure, du temps de disponibilité et de la résilience, ou de l'accessibilité) pour attirer des utilisateurs fidèles. Elles doivent agir rapidement car les investissements et constructions en infrastructures de GPU progressent à un rythme stupéfiant.
  • La régulation. La régulation reste un obstacle au mouvement informatique décentralisé. À court terme, le manque de réglementation claire signifie que les fournisseurs et les utilisateurs encourent des risques potentiels en utilisant ces services. Et si les fournisseurs proposent des calculs ou si les acheteurs achètent involontairement des calculs auprès d'entités sanctionnées ? Les utilisateurs pourraient hésiter à utiliser des plates-formes décentralisées dépourvues de contrôle et de supervision centralisés. Les protocoles tentent d'atténuer ces préoccupations en incorporant des contrôles dans leurs plates-formes ou en ajoutant des filtres pour n'accéder qu'à des fournisseurs de calcul connus (c'est-à-dire ceux qui ont fourni des informations Know Your Customer (KYC)), mais une approche plus robuste est nécessaire pour protéger la vie privée tout en garantissant la conformité. À court terme, nous pourrions voir l'émergence de plates-formes de KYC et de conformité qui restreignent l'accès à leurs protocoles pour résoudre ces problèmes. De plus, les discussions autour d'un possible nouveau cadre réglementaire aux États-Unis (illustré par la publication de l'ordonnance exécutive sur la promotion d'un développement et d'une utilisation sûrs, fiables et dignes de confiance de l'intelligence artificielle) soulignent le potentiel d'actions réglementaires pour restreindre davantage l'accès aux GPU.
  • La censure. La réglementation est une arme à double tranchant, et les produits informatiques décentralisés pourraient bénéficier des actions limitant l'accès à l'IA. Au-delà des ordres exécutifs, le fondateur d'OpenAI, Sam Altman, a témoigné au Congrès que les régulateurs devraient délivrer des licences pour le développement de l'IA. Les discussions sur la réglementation de l'IA ne font que commencer, mais toute tentative de restreindre l'accès ou de censurer les capacités de l'IA pourrait accélérer l'adoption de plateformes décentralisées qui ne sont pas confrontées à de telles barrières. Les changements de direction (ou leur absence) chez OpenAI en novembre indiquent en outre que confier le pouvoir de décision des modèles d'IA existants les plus puissants à quelques-uns comporte des risques. De plus, tous les modèles d'IA reflètent inévitablement les biais de ceux qui les créent, que ce soit intentionnellement ou non. Une manière d'éliminer ces biais est de rendre les modèles aussi ouverts que possible pour les ajuster et les entraîner, en garantissant à chacun, où qu'il soit, un accès à une variété de modèles avec des biais différents.
  • Confidentialité des données. La informatique décentralisée pourrait être plus attrayante que les alternatives centralisées lorsqu'elle est intégrée à des solutions externes de données et de confidentialité qui offrent aux utilisateurs la souveraineté des données. Samsung est devenu une victime lorsqu'il a réalisé que les ingénieurs utilisaient ChatGPT pour la conception de puces et divulguaient des informations sensibles à ChatGPT. Phala Network et iExec affirment fournir aux utilisateurs des enclaves sécurisées SGX pour protéger les données des utilisateurs, et la recherche en chiffrement entièrement homomorphe en cours pourrait encore débloquer l'informatique décentralisée assurant la confidentialité. À mesure que l'IA s'intègre davantage dans nos vies, les utilisateurs valoriseront de plus en plus la capacité d'exécuter des modèles sur des applications avec une protection de la confidentialité. Les utilisateurs ont également besoin de support pour les services de composition de données, afin de pouvoir transférer des données d'un modèle à un autre de manière transparente.
  • L'expérience utilisateur (UX). L'expérience utilisateur reste un obstacle majeur à une adoption plus large de tous les types d'applications et d'infrastructures cryptographiques. Il en va de même pour les produits de calcul décentralisé et est exacerbé dans certains cas en raison de la nécessité pour les développeurs de comprendre à la fois la cryptomonnaie et l'IA. Les améliorations doivent commencer par les bases, telles que rejoindre et extraire des interactions avec la blockchain, pour fournir la même qualité de sortie que les leaders actuels du marché. Cela est évident étant donné la difficulté que rencontrent de nombreux protocoles de calcul décentralisé fonctionnels offrant des produits moins chers à obtenir une utilisation régulière.

Contrats intelligents et zkML

Les contrats intelligents sont la pierre angulaire de tout écosystème blockchain. Ils s'exécutent automatiquement sous un ensemble de conditions spécifiques, réduisant ou éliminant le besoin de tiers de confiance, permettant ainsi la création d'applications décentralisées complexes, telles que celles de la DeFi. Cependant, la fonctionnalité des contrats intelligents est encore limitée car ils fonctionnent sur la base de paramètres prédéfinis qui doivent être mis à jour.

Par exemple, un contrat intelligent déployé pour un protocole de prêt/emprunt, qui contient des spécifications sur quand les positions doivent être liquidées en fonction de ratios spécifiques prêt-valeur. Bien utiles dans des environnements statiques, ces contrats intelligents nécessitent des mises à jour constantes pour s'adapter aux changements de tolérance au risque dans des situations dynamiques, ce qui pose des défis pour les contrats non gérés par des processus centralisés. Par exemple, les DAOs qui reposent sur des processus de gouvernance décentralisée peuvent ne pas réagir suffisamment rapidement aux risques systémiques.

L’intégration de l’intelligence artificielle (c’est-à-dire des modèles d’apprentissage automatique) dans les contrats intelligents est un moyen potentiel d’améliorer les fonctionnalités, la sécurité et l’efficacité tout en améliorant l’expérience globale de l’utilisateur. Cependant, ces intégrations introduisent également des risques supplémentaires, car il est impossible de garantir que les modèles qui sous-tendent ces contrats intelligents ne seront pas exploités ou ne parviendront pas à interpréter les situations de longue traîne (compte tenu de la rareté des entrées de données, les situations de longue traîne sont difficiles à entraîner pour les modèles).

Apprentissage automatique à divulgation nulle de connaissance (zkML)

L'apprentissage automatique nécessite une puissante puissance de calcul pour exécuter des modèles complexes, ce qui rend impraticable l'exécution directe de modèles d'IA dans des contrats intelligents en raison des coûts élevés. Par exemple, un protocole DeFi offrant des modèles d'optimisation du rendement trouverait difficile d'exécuter ces modèles on-chain sans encourir des frais de gaz prohibitifs. Une solution consiste à augmenter les capacités de calcul de la blockchain sous-jacente. Cependant, cela soulève également les exigences des validateurs de la chaîne, compromettant potentiellement la décentralisation. Au lieu de cela, certains projets explorent l'utilisation de zkML pour vérifier les sorties de manière décentralisée sans nécessiter de calcul intensif on-chain.

Un exemple courant illustrant l'utilité du zkML est lorsque les utilisateurs ont besoin que d'autres exécutent des données à travers des modèles et vérifient que leurs homologues ont effectivement exécuté le modèle correct. Les développeurs utilisant des fournisseurs de calcul décentralisés pour entraîner leurs modèles pourraient craindre que ces fournisseurs réduisent les coûts en utilisant des modèles moins chers produisant des sorties avec des différences presque imperceptibles. Le zkML permet aux fournisseurs de calcul d'exécuter des données à travers leurs modèles, puis de générer des preuves vérifiables on-chain, prouvant que les sorties du modèle pour des entrées données sont correctes. Dans ce scénario, le fournisseur de modèle obtient l'avantage supplémentaire de pouvoir proposer son modèle sans révéler les poids sous-jacents ayant produit les sorties.

Il est également possible de faire l'inverse. Si les utilisateurs souhaitent exécuter des modèles sur leurs données mais ne souhaitent pas donner accès aux projets de modèles à leurs données en raison de préoccupations concernant la confidentialité (par exemple, dans les vérifications médicales ou les informations commerciales exclusives), ils peuvent exécuter le modèle sur leurs données sans partager les données, puis vérifier à travers des preuves qu'ils ont exécuté le bon modèle. Ces possibilités étendent considérablement l'espace de conception pour l'intégration des fonctionnalités d'IA et de contrats intelligents en abordant des contraintes computationnelles redoutables.

Infrastructure et outils

Étant donné le stade précoce du domaine zkML, le développement est principalement axé sur la construction de l'infrastructure et des outils dont les équipes ont besoin pour convertir leurs modèles et leurs sorties en preuves vérifiables on-chain. Ces produits abstraient autant que possible les aspects de la connaissance nulle.

EZKL et Giza sont deux projets construisant de tels outils en fournissant des preuves vérifiables de l'exécution du modèle d'apprentissage automatique. Les deux aident les équipes à construire des modèles d'apprentissage automatique pour garantir que ces modèles peuvent s'exécuter de manière à ce que les résultats puissent être vérifiés de manière fiable sur la chaîne. Les deux projets utilisent l'Échange de Réseaux Neuronaux Ouverts (ONNX) pour convertir des modèles d'apprentissage automatique écrits dans des langages courants comme TensorFlow et Pytorch en un format standard. Ils produisent ensuite des versions de ces modèles qui génèrent également des preuves zk à l'exécution. EZKL est open-source, produisant zk-SNARKs, tandis que Giza est closed-source, produisant zk-STARKs. Les deux projets sont actuellement uniquement compatibles avec l'EVM.

Ces derniers mois, EZKL a réalisé des progrès significatifs dans l'amélioration des solutions zkML, en se concentrant principalement sur la réduction des coûts, l'amélioration de la sécurité et l'accélération de la génération de preuves. Par exemple, en novembre 2023, EZKL a intégré une nouvelle bibliothèque GPU open source qui a réduit le temps de preuve d'agrégation de 35 % ; en janvier, EZKL a publié Lilith, une solution logicielle pour intégrer des clusters informatiques haute performance et orchestrer des systèmes de tâches concurrentes lors de l'utilisation de preuves EZKL. La spécificité de Giza réside dans la fourniture d'outils pour créer des modèles d'apprentissage automatique vérifiables et prévoir la mise en place d'un équivalent web3 de Hugging Face, ouvrant ainsi un marché aux utilisateurs pour la collaboration zkML et le partage de modèles, et intégrant éventuellement des produits informatiques décentralisés. En janvier, EZKL a publié une évaluation comparative des performances d'EZKL, Giza et RiscZero (tel que décrit ci-dessous), mettant en avant des temps de preuve plus rapides et une utilisation de la mémoire plus efficace.

Modulus Labs développe actuellement une nouvelle technologie de preuve de connaissance nulle (zk) spécifiquement adaptée aux modèles d'IA. Modulus a publié un document intitulé « Coût intelligent », qui implique que l'exécution des modèles d'IA on-chain entraîne des coûts prohibitifs. Ce document, publié en janvier 2023, compare les systèmes de preuve zk existants pour identifier les améliorations de la capacité des preuves zk et les goulots d'étranglement au sein des modèles d'IA. Il révèle que les produits actuels sont trop chers et inefficaces pour les applications d'IA à grande échelle. S'appuyant sur des recherches initiales, Modulus a lancé Remainder en novembre, un prouveur zk spécialisé visant à réduire le coût et le temps de preuve pour les modèles d'IA, rendant les projets économiquement viables pour une intégration à grande échelle dans les contrats intelligents. Leur travail est propriétaire, ce qui rend impossible la comparaison avec les solutions mentionnées, mais il a récemment été cité dans l'article de blog de Vitalik sur la cryptographie et l'intelligence artificielle.

Le développement d'outils et d'infrastructures est crucial pour la croissance future de l'espace zkML, car il peut réduire significativement les frictions liées au déploiement de calculs vérifiables hors chaîne et au besoin d'équipes zk. La création d'interfaces sécurisées pour les praticiens du machine learning non natifs de la crypto leur permettra de mettre leurs modèles sur chaîne, ce qui permettra aux applications d'expérimenter de véritables cas d'utilisation novateurs. De plus, ces outils abordent un obstacle majeur à l'adoption plus large du zkML : le manque de développeurs compétents intéressés à travailler à l'intersection de la preuve de connaissance nulle, du machine learning et de la cryptographie.

Coprocesseur

D'autres solutions en développement, appelées « coprocesseurs » (y compris RiscZero, Axiom et Ritual), remplissent divers rôles, notamment la vérification des calculs hors chaîne sur la chaîne. Comme EZKL, Giza et Modulus, leur objectif est d'abstraire entièrement le processus de génération de preuve zk, créant des machines virtuelles à connaissance nulle capables d'exécuter des programmes hors chaîne et de générer des preuves vérifiables sur chaîne. RiscZero et Axiom s'adressent à des modèles d'IA simples en tant que coprocesseurs plus généraux, tandis que Ritual est spécifiquement conçu pour être utilisé avec des modèles d'IA.

Le premier cas d'utilisation de Ritual, Infernet, comprend un kit de développement logiciel Infernet qui permet aux développeurs de soumettre des demandes d'inférence au réseau et de recevoir en retour des sorties et des preuves facultatives. Les nœuds Infernet traitent ces calculs hors chaîne avant de renvoyer les sorties. Par exemple, un DAO pourrait établir un processus garantissant que toutes les nouvelles propositions de gouvernance remplissent certaines conditions préalables avant leur soumission. Chaque fois qu'une nouvelle proposition est soumise, le contrat de gouvernance déclenche une demande d'inférence via Infernet, invoquant un modèle d'IA spécialement formé pour la gouvernance de DAO. Ce modèle examine la proposition pour s'assurer que toutes les normes nécessaires sont respectées et renvoie des résultats et des preuves pour approuver ou rejeter la soumission de la proposition.

Au cours de l’année prochaine, l’équipe de Ritual prévoit d’introduire d’autres fonctionnalités, formant une couche d’infrastructure connue sous le nom de superchaîne Ritual. De nombreux projets discutés pourraient être intégrés en tant que prestataires de services dans Ritual. L’équipe de Ritual s’est déjà intégrée à EZKL pour la génération de preuves et pourrait bientôt ajouter des fonctionnalités d’autres fournisseurs de premier plan. Les nœuds Infernet sur Ritual peuvent également utiliser des GPU Akash ou io.net et des modèles de requête entraînés sur le sous-réseau Bittensor. Leur objectif ultime est de devenir le fournisseur privilégié d’infrastructures d’IA ouvertes, offrant des services d’apprentissage automatique et d’autres tâches liées à l’IA pour n’importe quel réseau et n’importe quelle charge de travail.

Applications

zkML aide à réconcilier la dichotomie entre la blockchain, qui est intrinsèquement limitée en ressources, et l’intelligence artificielle, qui nécessite d’importantes ressources de calcul et de données. Comme le dit l’un des fondateurs de Gizeh, « les cas d’utilisation sont incroyablement riches... C’est un peu comme demander quels étaient les cas d’utilisation des contrats intelligents aux débuts d’Ethereum... Ce que nous faisons, c’est simplement élargir les cas d’utilisation des contrats intelligents. Cependant, comme nous l’avons mentionné, le développement actuel se fait principalement au niveau des outils et de l’infrastructure. Les applications sont encore en phase exploratoire, les équipes étant confrontées au défi de prouver que la valeur générée par la mise en œuvre de modèles avec zkML l’emporte sur sa complexité et son coût.

Les applications actuelles incluent:

  • La finance décentralisée (DeFi). zkML améliore les capacités des contrats intelligents, améliorant l'espace de conception pour DeFi. Les protocoles DeFi offrent une multitude de données vérifiables et immuables pour les modèles d'apprentissage automatique à utiliser dans la génération de rendement ou de stratégies de trading, l'analyse des risques, l'expérience utilisateur, etc. Par exemple, Giza a collaboré avec Yearn Finance pour construire un moteur d'évaluation des risques automatique de proof-of-concept pour les nouveaux coffres-forts v3 de Yearn. Modulus Labs travaille avec Lyra Finance pour intégrer l'apprentissage automatique dans son AMM, avec Ion Protocol pour mettre en œuvre des modèles d'analyse des risques des validateurs, et aide Upshot à valider ses informations de tarification NFT prises en charge par l'IA. Des protocoles comme NOYA (utilisant EZKL) et Mozaic offrent un accès à des modèles propriétaires hors chaîne, permettant aux utilisateurs d'accéder à l'extraction de liquidité automatisée tout en validant les entrées de données et les preuves en chaîne. Spectral Finance développe un moteur de notation de crédit en chaîne pour prédire la probabilité de défaut des emprunteurs de Compound ou Aave. Grâce à zkML, ces produits dits "De-Ai-Fi" devraient devenir de plus en plus populaires dans les années à venir.
  • Jeu. Les jeux ont longtemps été envisagés pour la perturbation et l’amélioration par le biais de blockchains publiques. zkML permet des jeux d’intelligence artificielle sur la chaîne. Modulus Labs a réalisé une preuve de concept pour des jeux simples sur la chaîne. « Leela vs the World » est un jeu d’échecs basé sur la théorie des jeux où les utilisateurs s’affrontent contre un modèle d’échecs IA, zkML vérifiant chaque mouvement de Leela en fonction du modèle de course du jeu. De même, les équipes utilisent le cadre EZKL pour créer des concours de chant simples et des tic-tac-toe sur la chaîne. Cartridge utilise Gizeh pour permettre aux équipes de déployer des jeux entièrement sur la chaîne, mettant récemment en avant un jeu de conduite simple basé sur l’IA où les utilisateurs peuvent s’affronter pour créer de meilleurs modèles de voitures essayant d’éviter les obstacles. Bien que simples, ces preuves de concept laissent présager de futures implémentations capables d’une vérification on-chain plus complexe, telles que des acteurs PNJ complexes capables d’interagir avec les économies du jeu, comme on le voit dans « AI Arena », un jeu Super Smash Brothers où les joueurs peuvent entraîner leurs guerriers, puis les déployer comme modèles d’IA pour se battre.
  • Identité, Provenance et Confidentialité. Les cryptomonnaies ont été utilisées pour vérifier l'authenticité et lutter contre le problème croissant de contenus générés/manipulés par l'IA et de deepfakes. zkML peut faire progresser ces efforts. WorldCoin est une solution de vérification d'identité qui exige que les utilisateurs scannent leurs iris pour générer un identifiant unique. À l'avenir, les identifiants biométriques pourraient être auto-hébergés sur des appareils personnels à l'aide de chiffrement et vérifiés à l'aide de modèles s'exécutant localement. Les utilisateurs pourraient alors fournir des preuves biométriques sans révéler leur identité, défendant ainsi contre les attaques Sybil tout en assurant la confidentialité. Cela pourrait également s'appliquer à d'autres inférences nécessitant la confidentialité, telles que l'utilisation de modèles pour analyser des données/images médicales en vue de la détection de maladies, vérifier des personnalités et développer des algorithmes de correspondance dans les applications de rencontres, ou encore les institutions d'assurance et de prêt ayant besoin de vérifier des informations financières.

Perspective

zkML reste expérimental, la plupart des projets se concentrant sur la construction d'infrastructures primitives et de preuves de concept. Les défis actuels comprennent les coûts de calcul, les limitations de mémoire, la complexité du modèle, les outils et infrastructures limités, et le talent des développeurs. En bref, il y a un travail considérable à faire avant que zkML puisse être mis en œuvre à l'échelle requise par les produits grand public.

Cependant, à mesure que le domaine mûrit et que ces limitations sont abordées, le zkML deviendra un élément clé de l'intégration de l'intelligence artificielle avec la cryptographie. Fondamentalement, le zkML promet d'amener n'importe quelle échelle de calcul hors chaîne sur la chaîne, tout en maintenant les mêmes garanties de sécurité ou similaires que l'exécution sur chaîne. Pourtant, avant que cette vision ne se concrétise, les premiers adoptants de la technologie devront continuer à équilibrer la confidentialité et la sécurité du zkML par rapport à l'efficacité des alternatives.

Agents d'Intelligence Artificielle

Agents d’intelligence artificielle

L'une des intégrations les plus passionnantes de l'intelligence artificielle et de la cryptomonnaie est l'expérience en cours avec des agents d'intelligence artificielle. Les agents sont des robots autonomes capables de recevoir, d'interpréter et d'exécuter des tâches en utilisant des modèles d'IA. Cela pourrait aller d'avoir un assistant personnel disponible en tout temps, parfaitement adapté à vos préférences, à engager un agent financier pour gérer et ajuster votre portefeuille d'investissement en fonction de vos préférences en matière de risque.

Étant donné que la cryptomonnaie offre une infrastructure de paiement sans permission et sans confiance, les agents et la cryptomonnaie peuvent être bien intégrés. Une fois formés, les agents auront un portefeuille, ce qui leur permettra d'effectuer des transactions par eux-mêmes en utilisant des contrats intelligents. Par exemple, les agents d'aujourd'hui peuvent collecter des informations sur Internet, puis échanger sur les marchés de prédiction basés sur des modèles.

Fournisseurs d'agents

Morpheus est l'un des derniers projets d'agent open-source lancés en 2024 sur Ethereum et Arbitrum. Son livre blanc a été publié anonymement en septembre 2023, fournissant une base pour la formation et la construction de la communauté, avec des figures prominentes telles qu'Erik Vorhees. Le livre blanc comprend un protocole d'agent intelligent téléchargeable, un LLM open-source pouvant être exécuté localement, géré par le portefeuille de l'utilisateur, et interagir avec des contrats intelligents. Il utilise des classements de contrats intelligents pour aider les agents à déterminer avec quels contrats intelligents ils peuvent interagir en toute sécurité en fonction de critères tels que le nombre de transactions traitées.

Le livre blanc fournit également un cadre pour la construction du réseau Morpheus, y compris les structures d'incitation et l'infrastructure nécessaires pour exécuter le protocole d'agent intelligent. Cela inclut des incitations pour les contributeurs à construire des interfaces frontales pour interagir avec les agents, des API pour que les développeurs construisent des agents plug-in pour une interaction mutuelle, et des solutions cloud pour que les utilisateurs accèdent aux calculs et au stockage nécessaires pour exécuter des agents sur des appareils périphériques. Le financement initial du projet a été lancé début février, le protocole complet devant être lancé au deuxième trimestre de 2024.

Le réseau d'infrastructure autonome décentralisé (DAIN) est un nouveau protocole d'infrastructure d'agent construisant une économie d'agent à agent sur Solana. L'objectif de DAIN est de permettre aux agents de différentes entreprises d'interagir de manière transparente les uns avec les autres grâce à une API commune, ouvrant considérablement l'espace de conception pour les agents d'IA, en se concentrant sur les agents capables d'interagir à la fois avec des produits web2 et web3. En janvier, DAIN a annoncé son premier partenariat avec Asset Shield, permettant aux utilisateurs d'ajouter des "signataires d'agent" à leurs multisigs, capables d'interpréter des transactions et d'approuver/rejeter en fonction des règles définies par l'utilisateur.

Fetch.AI est l'un des premiers protocoles d'agents IA déployés et a développé un écosystème pour construire, déployer et utiliser des agents on-chain en utilisant des jetons FET et des portefeuilles Fetch.AI. Le protocole offre un ensemble complet d'outils et d'applications pour utiliser des agents, y compris des fonctions intégrées de portefeuille pour interagir avec et commander des agents.

Autonolas, fondé par d'anciens membres de l'équipe Fetch, est un marché ouvert pour la création et l'utilisation d'agents d'IA décentralisés. Autonolas fournit également un ensemble d'outils aux développeurs pour construire des agents d'IA hébergés hors chaîne pouvant se connecter à plusieurs blockchains, notamment Polygon, Ethereum, Gnosis Chain et Solana. Ils disposent actuellement de certains produits de preuve de concept d'agent actif, notamment pour les marchés prédictifs et la gouvernance des DAO.

SingularityNet construit un marché décentralisé pour les agents d'IA, où des agents d'IA spécialisés peuvent être déployés, qui peuvent être embauchés par d'autres agents pour effectuer des tâches complexes. D'autres entreprises comme AlteredStateMachine construisent des intégrations d'agents d'IA avec des NFT. Les utilisateurs créent des NFT avec des attributs aléatoires, ce qui leur donne des avantages et des inconvénients sur différentes tâches. Ces agents peuvent ensuite être formés pour améliorer certains attributs à utiliser dans les jeux, la DeFi, ou en tant qu'assistants virtuels et échangés avec d'autres utilisateurs.

Dans l'ensemble, ces projets envisagent un écosystème futur d'agents capables de travailler de manière collaborative non seulement pour effectuer des tâches, mais aussi pour aider à construire une intelligence artificielle générale. Les agents vraiment complexes auront la capacité d'accomplir de manière autonome n'importe quelle tâche utilisateur. Par exemple, des agents entièrement autonomes pourront trouver comment embaucher un autre agent pour intégrer une API, puis exécuter une tâche sans avoir à s'assurer que l'agent s'est déjà intégré à des API externes (comme les sites de réservation de voyages) avant utilisation. Du point de vue de l'utilisateur, il n'est pas nécessaire de vérifier si un agent peut accomplir une tâche, car l'agent peut déterminer cela par lui-même.

Bitcoin et Agents d'IA

En juillet 2023, Lightning Labs a lancé une implémentation de preuve de concept pour l'utilisation d'agents sur le Lightning Network, surnommée le Bitcoin suite par LangChain. Ce produit est particulièrement intrigant car il vise à résoudre un problème de plus en plus grave dans le monde Web 2 - les clés d'API fermées et coûteuses des applications web.

LangChain résout ce problème en fournissant aux développeurs un ensemble d’outils qui permettent aux agents d’acheter, de vendre et de détenir des bitcoins, ainsi que d’interroger des clés API et d’envoyer des micropaiements. Sur les rails de paiement traditionnels, les micropaiements sont d’un coût prohibitif en raison des frais, mais sur le Lightning Network, les agents peuvent envoyer un nombre illimité de micropaiements par jour à un coût minime. Lorsqu’il est utilisé en conjonction avec le cadre d’API de comptage de paiement L402 de LangChain, les entreprises peuvent ajuster les coûts d’accès de leurs API en fonction des augmentations et des diminutions de l’utilisation, plutôt que d’établir une norme unique et coûteuse.

À l'avenir, les activités de chaîne seront principalement stimulées par les interactions entre les agents et les agents, nécessitant des mécanismes pour garantir que les agents puissent interagir les uns avec les autres sans coûts prohibitifs. Cet exemple précoce montre le potentiel d'utiliser des agents sur des rails de paiement sans permission et économiquement efficaces, ouvrant des possibilités pour de nouveaux marchés et interactions économiques.

Perspective

Le domaine des agents en est encore à ses balbutiements. Les projets viennent tout juste de commencer à lancer des agents fonctionnels capables de gérer des tâches simples, un accès généralement limité aux développeurs et utilisateurs expérimentés. Cependant, avec le temps, l'un des impacts les plus significatifs des agents d'intelligence artificielle sur les cryptomonnaies sera l'amélioration de l'expérience utilisateur dans toutes les verticales. Les transactions commenceront à passer d'un clic à un texte, permettant aux utilisateurs d'interagir avec des agents on-chain via des interfaces conversationnelles. Des équipes comme Dawn Wallet ont déjà lancé des portefeuilles de chatbot, permettant aux utilisateurs d'interagir on-chain.

De plus, il reste encore à déterminer comment les agents fonctionneront dans le Web 2, car les rails financiers s'appuient sur des institutions bancaires réglementées qui ne peuvent pas fonctionner 24h/24 ou faciliter des transactions transfrontalières sans problème. Comme l'a souligné Lyn Alden, l'absence de remboursements et la capacité à gérer les microtransactions rendent les rails de cryptomonnaie particulièrement attrayants par rapport aux cartes de crédit. Cependant, si les agents deviennent un moyen de transaction plus courant, les fournisseurs de paiement et les applications existants sont susceptibles de s'adapter rapidement, en mettant en place l'infrastructure nécessaire pour fonctionner sur les rails financiers existants, diminuant ainsi certains avantages de l'utilisation de la cryptomonnaie.

Actuellement, les agents peuvent être limités aux transactions de cryptomonnaie déterministes, où une entrée donnée garantit une sortie donnée. Les deux modèles ont souligné la capacité de ces agents à comprendre comment accomplir des tâches complexes, et les outils étendent la gamme de tâches qu'ils peuvent accomplir, ce qui nécessite tous deux un développement ultérieur. Pour que les agents de cryptomonnaie deviennent utiles au-delà des nouveaux cas d'utilisation de la cryptomonnaie sur chaîne, une intégration et une acceptation plus larges de la cryptomonnaie en tant que forme de paiement, ainsi qu'une clarté réglementaire, sont nécessaires. Cependant, à mesure que ces composants se développent, les agents sont sur le point de devenir parmi les plus grands consommateurs de calcul décentralisé et de solutions zkML, recevant et résolvant de manière autonome toute tâche de manière non déterministe.

Conclusion

L'IA introduit les mêmes innovations dans la cryptomonnaie que celles que nous avons vues dans le web2, améliorant tout, du développement de l'infrastructure à l'expérience utilisateur et à l'accessibilité. Cependant, les projets en sont encore à leurs débuts et l'intégration à court terme de la cryptomonnaie et de l'IA sera principalement pilotée par des intégrations hors chaîne.

Des produits comme Copilot sont destinés à "augmenter l'efficacité des développeurs de 10 fois", et les applications Layer 1 et DeFi ont déjà lancé des plateformes de développement assistées par l'IA en collaboration avec des grandes entreprises comme Microsoft. Des entreprises telles que Cub3.ai et Test Machine développent des intégrations IA pour l'audit de contrats intelligents et la surveillance des menaces en temps réel afin d'améliorer la sécurité on-chain. Les chatbots LLM sont formés avec des données on-chain, de la documentation de protocole et des applications pour fournir aux utilisateurs une accessibilité et une expérience utilisateur améliorées.

Le défi des intégrations plus avancées qui tirent vraiment parti de la technologie sous-jacente des cryptomonnaies reste à prouver que la mise en œuvre de solutions d'IA on-chain est techniquement et économiquement faisable. Le développement de l'informatique décentralisée, du zkML et des agents d'IA laisse entrevoir des verticales prometteuses qui posent les bases d'un avenir profondément interconnecté de la cryptomonnaie et de l'IA.

Avertissement:

  1. Cet article est repris detechflow, Tous les droits d'auteur appartiennent à l'auteur original [Lucas Tcheyan]. Si vous avez des objections à cette réimpression, veuillez contacter le Gate Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, il est interdit de copier, distribuer ou plagier les articles traduits.

Galaxy Digital: Explorer l'intersection de la cryptomonnaie et de l'IA

Intermédiaire2/28/2024, 4:55:32 AM
Cet article explore l'intersection de la cryptomonnaie et de l'intelligence artificielle, mettant en lumière l'émergence des blockchains publiques comme l'une des avancées les plus profondes de l'histoire de l'informatique. Il discute de l'impact significatif que le développement de l'IA a déjà sur notre monde.

Introduction

L'émergence des blockchains publiques marque une avancée profonde dans l'histoire de l'informatique, tandis que le développement de l'intelligence artificielle a un impact significatif sur notre monde. La technologie blockchain offre de nouveaux modèles pour le règlement des transactions, le stockage de données et la conception de systèmes, tandis que l'intelligence artificielle représente une révolution dans le calcul, l'analyse et la diffusion de contenu. Les innovations dans ces industries libèrent de nouveaux cas d'utilisation qui pourraient accélérer l'adoption des deux secteurs dans les années à venir. Ce rapport examine l'intégration continue de la cryptomonnaie et de l'intelligence artificielle, en mettant l'accent sur de nouveaux cas d'utilisation visant à combler le fossé entre les deux et à exploiter leurs forces. Il se penche spécifiquement sur les projets développant des protocoles de calcul décentralisés, une infrastructure d'apprentissage automatique à connaissance nulle (zkML) et des agents d'IA.

Les cryptomonnaies offrent une couche de règlement sans autorisation, sans confiance et composite pour l'IA, débloquant des cas d'utilisation tels que un accès plus facile au matériel grâce à des systèmes informatiques décentralisés, la construction d'agents d'IA capables d'exécuter des tâches complexes nécessitant un échange de valeur, et le développement de solutions d'identité et de provenance pour contrer les attaques Sybil et les deepfakes. L'IA apporte aux cryptomonnaies bon nombre des mêmes avantages observés dans le Web 2.0, y compris des expériences utilisateur et développeur améliorées grâce à de grands modèles de langage comme ChatGPT et Copilot, ainsi qu'un potentiel de fonctionnalité et d'automatisation considérablement amélioré pour les contrats intelligents. La blockchain fournit l'environnement transparent et riche en données nécessaire à l'IA, bien que la puissance de calcul limitée de la blockchain constitue un obstacle majeur à l'intégration directe des modèles d'IA.

Les expériences et l'adoption finale dans le croisement de la cryptomonnaie et de l'IA sont motivées par les mêmes forces qui animent les cas d'utilisation les plus prometteurs pour la cryptomonnaie: l'accès à une couche de coordination sans permission et sans confiance, facilitant un meilleur transfert de valeur. Étant donné le vaste potentiel, les parties prenantes de ce domaine doivent comprendre les façons fondamentales dont ces technologies se croisent.

Points clés :

    • Dans un avenir proche (6 mois à 1 an), l'intégration de la cryptomonnaie et de l'IA sera dominée par des applications d'IA qui améliorent l'efficacité des développeurs, l'auditabilité et la sécurité des contrats intelligents, ainsi que l'accessibilité des utilisateurs. Ces intégrations ne sont pas spécifiques à la cryptomonnaie mais améliorent l'expérience des développeurs et des utilisateurs on-chain.
    • Comme les GPU haute performance restent rares, les produits de calcul décentralisés mettent en œuvre des produits GPU personnalisés pour l'IA afin de stimuler l'adoption.
    • L'expérience utilisateur et les obstacles réglementaires restent des obstacles à l'attraction des clients de l'informatique décentralisée. Cependant, les récents développements d'OpenAI et les examens réglementaires en cours aux États-Unis mettent en lumière la proposition de valeur des réseaux d'IA décentralisés, sans permission, résistants à la censure.
    • L'intégration de l'IA on-chain, en particulier les contrats intelligents capables d'utiliser des modèles d'IA, nécessite des améliorations de la technologie zkML et d'autres méthodes pour vérifier les calculs hors chaîne. Un manque d'outils complets, de talents de développement et des coûts élevés constituent des obstacles à l'adoption.
    • Les agents d'IA sont bien adaptés aux cryptomonnaies, où les utilisateurs (ou les agents eux-mêmes) peuvent créer des portefeuilles pour effectuer des transactions avec d'autres services, des agents ou des particuliers - une capacité impossible avec les réseaux financiers traditionnels. Une intégration supplémentaire avec des produits non cryptographiques est nécessaire pour une adoption plus large.

Termes

L'intelligence artificielle est l'utilisation de calcul et de machines pour imiter le raisonnement et les capacités de résolution de problèmes des humains.

Les réseaux neuronaux sont une méthode de formation des modèles d'intelligence artificielle. Ils font passer les entrées à travers des couches algorithmiques discrètes, les affinant jusqu'à ce que la sortie désirée soit produite. Les réseaux neuronaux se composent d'équations avec des poids qui peuvent être ajustés pour changer la sortie. Ils peuvent nécessiter des données et des calculs approfondis pour la formation afin de garantir des sorties précises. Il s'agit de l'une des façons les plus courantes de développer des modèles d'IA (par exemple, ChatGPT repose sur un processus de réseau neuronal basé sur les Transformers).

La formation est le processus de développement de réseaux neuronaux et d'autres modèles d'IA. Il nécessite une quantité significative de données pour former les modèles à interpréter correctement les entrées et produire des sorties précises. Pendant la formation, les poids de l'équation du modèle sont continuellement modifiés jusqu'à ce qu'une sortie satisfaisante soit produite. La formation peut être très coûteuse. Par exemple, ChatGPT utilise des dizaines de milliers de ses propres GPU pour traiter les données. Les équipes avec moins de ressources se reposent souvent sur des fournisseurs de calcul spécialisés, tels que Amazon Web Services, Azure, et les fournisseurs de Google Cloud.

L'inférence est l'utilisation réelle des modèles d'IA pour obtenir des sorties ou des résultats (par exemple, en utilisant ChatGPT pour créer un plan pour un document sur l'intersection de la cryptomonnaie et de l'IA). L'inférence est utilisée tout au long du processus de formation et dans le produit final. En raison des coûts de calcul, même après la fin de la formation, leurs coûts opérationnels peuvent être élevés, bien que leur intensité de calcul soit inférieure à celle de la formation.

Les preuves de connaissance nulle (ZKP) permettent la vérification des déclarations sans révéler les informations sous-jacentes. Cela est utile dans la cryptomonnaie pour deux raisons principales : 1) la confidentialité et 2) la mise à l'échelle. En ce qui concerne la confidentialité, elle permet aux utilisateurs d'effectuer des transactions sans révéler d'informations sensibles (par exemple, le montant d'ETH dans un portefeuille). En ce qui concerne la mise à l'échelle, elle permet aux calculs hors chaîne d'être prouvés sur chaîne plus rapidement que de réexécuter les calculs. Cela permet aux blockchains et aux applications d'exécuter à moindre coût des calculs hors chaîne, puis de les vérifier sur chaîne. Pour plus d'informations sur la preuve de connaissance nulle et son rôle dans les machines virtuelles Ethereum, consultez le rapport de Christine Kim sur les zkEVM : l'avenir de la mise à l'échelle d'Ethereum.

Carte du marché de l'IA/Cryptomonnaie

Les projets intégrant l’intelligence artificielle et la crypto-monnaie sont toujours en train de construire l’infrastructure sous-jacente nécessaire pour prendre en charge les interactions d’IA on-chain à grande échelle.

Les marchés de calcul décentralisé émergent pour fournir le vaste matériel physique nécessaire pour former et déduire des modèles d'IA, principalement sous forme d'unités de traitement graphique (GPU). Ces marchés à deux faces connectent ceux qui louent et cherchent à louer des capacités de calcul, facilitant le transfert de valeur et la vérification des calculs. Au sein du calcul décentralisé, plusieurs sous-catégories offrant des fonctionnalités supplémentaires sont en train d'émerger. Outre les marchés bilatéraux, ce rapport examine également les fournisseurs de formation en apprentissage automatique qui offrent une formation vérifiable et un ajustement fin des sorties, ainsi que des projets dédiés à la liaison entre calcul et génération de modèles pour permettre l'IA, souvent appelés réseaux d'incitation intelligents.

zkML est un domaine d'intérêt émergent pour les projets visant à fournir des sorties de modèle vérifiables on-chain de manière économiquement viable et en temps voulu. Ces projets permettent principalement aux applications de gérer les demandes de calcul intensif hors chaîne, puis de publier des sorties vérifiables on-chain, prouvant que la charge de travail hors chaîne était complète et précise. zkML est actuellement à la fois coûteux et long, mais est de plus en plus utilisé comme solution. Cela se manifeste dans le nombre croissant d'intégrations entre les fournisseurs de zkML et les applications DeFi / gaming souhaitant tirer parti des modèles d'IA.

L’offre abondante de calcul et la possibilité de vérifier le calcul on-chain ouvrent la porte aux agents d’IA on-chain. Les agents sont des modèles entraînés capables d’exécuter des requêtes pour le compte des utilisateurs. Les agents offrent la possibilité d’améliorer considérablement l’expérience on-chain, en permettant aux utilisateurs d’exécuter des transactions complexes simplement en conversant avec un chatbot. Cependant, à l’heure actuelle, les projets d’agents sont toujours axés sur le développement de l’infrastructure et des outils pour un déploiement facile et rapide.

Calcul décentralisé

Aperçu

L'intelligence artificielle nécessite une computation étendue pour entraîner des modèles et exécuter des inférences. Au cours de la dernière décennie, à mesure que les modèles sont devenus de plus en plus complexes, la demande en computation a augmenté de manière exponentielle. Par exemple, OpenAI a observé qu'entre 2012 et 2018, la demande en computation de ses modèles doublait tous les deux ans, passant à doubler tous les trois mois et demi. Cela a entraîné une explosion de la demande en GPU, certains mineurs de cryptomonnaie réaffectant même leurs GPU pour fournir des services de cloud computing. Alors que la concurrence pour l'accès à la computation s'intensifie et que les coûts augmentent, certains projets exploitent la technologie cryptographique pour offrir des solutions de computation décentralisée. Ils proposent de la computation à la demande à des prix compétitifs, permettant aux équipes de former et exécuter des modèles à un coût abordable. Dans certains cas, les compromis peuvent concerner les performances et la sécurité.

La demande de GPU de pointe (par exemple, ceux produits par Nvidia) est importante. En septembre, Tether a acquis une participation dans le mineur de Bitcoin allemand Northern Data, dépensant apparemment 420 millions de dollars pour acheter 10 000 GPU H100 (l'un des GPU les plus avancés pour la formation à l'IA). Le délai d'attente pour acquérir du matériel de premier ordre peut être d'au moins six mois, voire plus dans de nombreux cas. De plus, les entreprises sont souvent tenues de signer des contrats à long terme pour sécuriser des volumes de calcul qu'elles pourraient même ne pas utiliser. Cela peut conduire à des situations où les ressources de calcul sont disponibles mais pas accessibles sur le marché. Les systèmes informatiques décentralisés aident à résoudre ces inefficacités du marché en créant un marché secondaire où les propriétaires de calcul peuvent immédiatement sous-louer leur capacité excédentaire sur notification, libérant ainsi une nouvelle offre.

Au-delà de la tarification compétitive et de l'accessibilité, une proposition de valeur clé de l'informatique décentralisée est la résistance à la censure. Le développement de l'IA de pointe est de plus en plus dominé par de grandes entreprises technologiques aux capacités de calcul et d'accès aux données inégalées. Le premier thème clé mis en avant dans le Rapport annuel 2023 de l'Indice de l'IA était le dépassement croissant de l'université par l'industrie dans le développement des modèles d'IA, concentrant le contrôle entre les mains de quelques leaders technologiques. Cela soulève des préoccupations quant à leur potentiel à exercer une influence significative dans l'établissement des normes et des valeurs sous-tendant les modèles d'IA, surtout après que ces entreprises technologiques poussent à des réglementations pour limiter le développement incontrôlable de l'IA.

Domaines dans l'informatique décentralisée

Plusieurs modèles de calcul décentralisé ont émergé ces dernières années, chacun avec son propre focus et compromis.

Calcul généralisé

D’une manière générale, des projets tels qu’Akash, io.net, iExec et Cudos sont des applications de l’informatique décentralisée, offrant au-delà des données et des solutions de calcul générales, un accès à des calculs spécialisés pour l’entraînement et l’inférence de l’IA. Akash se distingue comme la seule plate-forme « super cloud » entièrement open-source, utilisant le SDK Cosmos pour son réseau de preuve d’enjeu. AKT, le jeton natif d’Akash, sert de méthode de paiement pour sécuriser le réseau et inciter à la participation. Lancé en 2020, le réseau principal d’Akash s’est initialement concentré sur un marché de cloud computing sans permission, proposant des services de stockage et de location de processeurs. En juin 2023, Akash a introduit un réseau de test centré sur le GPU, suivi d’un lancement du réseau principal GPU en septembre, permettant l’entraînement de l’IA et la location de GPU par inférence.

L'écosystème Akash comprend deux participants principaux : les locataires, qui recherchent des ressources informatiques, et les fournisseurs, les fournisseurs de calcul. Un processus d'enchères inversées facilite la mise en relation des locataires et des fournisseurs, où les locataires publient leurs besoins en matière de calcul, y compris les emplacements de serveurs préférés ou les types de matériel et leur budget. Les fournisseurs soumissionnent ensuite, le moins offrant se voyant attribuer la tâche. Les validateurs maintiennent l'intégrité du réseau, avec un plafond actuel de 100 validateurs, prévu d'augmenter avec le temps. La participation en tant que validateur est ouverte à ceux qui misent plus d'AKT que le validateur actuel le moins misé. Les détenteurs d'AKT peuvent déléguer leurs jetons aux validateurs, les frais de transaction et les récompenses de bloc étant distribués en AKT. De plus, pour chaque bail, le réseau Akash gagne un "taux de prise", décidé par la communauté, distribué aux détenteurs d'AKT.

Marché secondaire

Le marché secondaire de l’informatique décentralisée vise à remédier aux inefficacités du marché informatique existant, où les contraintes d’approvisionnement conduisent les entreprises à accumuler des ressources au-delà de leurs besoins et où les contrats à long terme avec les fournisseurs de cloud limitent davantage l’offre. Les plates-formes informatiques décentralisées débloquent de nouvelles offres, permettant à toute personne ayant des besoins informatiques de devenir un fournisseur.

Que la forte demande de GPU pour l'entraînement en IA se traduise par une utilisation soutenue du réseau sur Akash reste à voir. Historiquement, Akash a proposé des services de marché basés sur le CPU avec une remise de 70 à 80 % par rapport aux alternatives centralisées, pourtant cette stratégie de tarification n'a pas entraîné une adoption significative. L'activité du réseau, mesurée par les baux actifs, a atteint un plateau, avec en moyenne 33 % de calcul, 16 % de mémoire et 13 % d'utilisation du stockage d'ici le deuxième trimestre 2023, impressionnant pour une adoption on-chain mais révélateur d'une offre toujours supérieure à la demande. Six mois après le lancement du réseau GPU, il est encore trop tôt pour évaluer définitivement l'adoption à long terme, bien que les premiers signes montrent une utilisation moyenne de 44 % des GPU, principalement due à la demande de GPU de haute qualité comme l'A100, dont plus de 90 % ont été loués.

Les dépenses quotidiennes d'Akash ont presque doublé depuis l'introduction des GPU, attribuées en partie à une utilisation accrue d'autres services, en particulier les CPUs, mais principalement en raison de la nouvelle utilisation des GPU.

Les tarifs sont compétitifs, voire dans certains cas plus chers que les homologues centralisés tels que Lambda Cloud et Vast.ai. La forte demande de GPU haut de gamme, tels que le H100 et le A100, signifie que la plupart des propriétaires de ces équipements ne sont pas intéressés à les répertorier sur un marché à prix compétitif.

Malgré les profits initiaux, des obstacles à l'adoption subsistent. Les réseaux informatiques décentralisés doivent prendre des mesures supplémentaires pour générer la demande et l'offre, les équipes explorant la meilleure façon d'attirer de nouveaux utilisateurs. Par exemple, début 2024, Akash a adopté la Proposition 240, augmentant l'émission de AKT pour les fournisseurs de GPU afin d'inciter à une offre plus importante, notamment pour les GPU haut de gamme. Les équipes travaillent également sur des modèles de preuve de concept pour démontrer les capacités en direct de leurs réseaux aux utilisateurs potentiels. Akash forme ses modèles fondamentaux et a lancé des produits de chatbot et de génération d'images qui utilisent les GPU Akash. De même, io.net a développé un modèle de diffusion stable et lance de nouvelles fonctionnalités réseau pour mieux émuler les performances et l'échelle du réseau.

Formation décentralisée en apprentissage automatique

En plus des plates-formes informatiques générales qui peuvent répondre aux exigences de l'intelligence artificielle, un groupe de fournisseurs professionnels de GPU pour l'IA axés sur la formation de modèles d'apprentissage automatique émerge également. Par exemple, Gensyn est en train de « coordonner la puissance et le matériel pour construire une intelligence collective », avec la philosophie que « si quelqu'un veut entraîner quelque chose et que quelqu'un est prêt à l'entraîner, alors cet entraînement devrait être autorisé à se produire. »

Ce protocole implique quatre principaux participants: les soumissionnaires, les solveurs, les validateurs et les lanceurs d'alerte. Les soumissionnaires soumettent des tâches avec des demandes de formation au réseau. Ces tâches comprennent les objectifs de formation, les modèles à former et les données de formation. Dans le cadre du processus de soumission, les soumissionnaires doivent prépayer le coût computationnel estimé requis par les solveurs.

Après la soumission, les tâches sont attribuées aux solveurs qui effectuent réellement la formation du modèle. Ensuite, les solveurs soumettent les tâches terminées aux validateurs, qui sont chargés de vérifier la formation pour s'assurer qu'elle a été correctement effectuée. Les lanceurs d'alerte sont chargés de veiller à ce que les validateurs agissent de manière honnête. Pour motiver les lanceurs d'alerte à participer au réseau, Gensyn prévoit d'offrir régulièrement des preuves délibérément incorrectes, récompensant ainsi les lanceurs d'alerte qui les repèrent.

En plus de fournir des calculs pour les charges de travail liées à l'IA, une proposition de valeur clé de Gensyn est son système de vérification, qui est encore en cours de développement. La vérification est nécessaire pour garantir que le calcul externe par les fournisseurs de GPU est exécuté correctement (c'est-à-dire garantir que les modèles des utilisateurs sont entraînés comme ils le souhaitent). Gensyn aborde ce problème avec une approche unique, utilisant des méthodes de vérification novatrices appelées « preuves d'apprentissage probabiliste, protocoles précis basés sur les graphiques et des jeux d'incitations de style Truebit ». Il s'agit d'un modèle de résolution optimiste qui permet aux validateurs de confirmer que les solveurs ont exécuté le modèle correctement sans avoir besoin de rerun entièrement le modèle eux-mêmes, un processus coûteux et inefficient.

En plus de sa méthode de vérification innovante, Gensyn affirme également être rentable par rapport aux alternatives centralisées et aux concurrents en cryptomonnaies - offrant des prix de formation ML jusqu'à 80% moins chers que AWS, tout en surpassant des projets similaires comme Truebit dans les tests.

Que ces premiers résultats puissent être reproduits à grande échelle dans des réseaux décentralisés reste à voir. Gensyn espère utiliser la capacité de calcul excédentaire de fournisseurs tels que de petits centres de données, des utilisateurs de détail, et éventuellement de petits appareils mobiles comme des smartphones. Cependant, comme l'admet lui-même l'équipe de Gensyn, le recours à des fournisseurs de calcul hétérogènes présente de nouveaux défis.

Pour les fournisseurs centralisés comme Google Cloud et Coreweave, les coûts de calcul sont élevés, mais la communication entre les calculs (bande passante et latence) est bon marché. Ces systèmes sont conçus pour faciliter la communication entre le matériel aussi rapidement que possible. Gensyn perturbe ce cadre en réduisant les coûts de calcul en permettant à quiconque dans le monde d'offrir des GPU, mais en même temps augmente les coûts de communication, car le réseau doit désormais coordonner les tâches de calcul sur des matériels hétérogènes distants. Gensyn n'a pas encore été lancé, mais il représente une preuve de concept qui pourrait être réalisée lors de la construction d'un protocole d'entraînement en apprentissage automatique décentralisé.

Intelligence générale décentralisée

Les plateformes informatiques décentralisées offrent également la possibilité de concevoir des méthodes de création d'intelligence artificielle. Bittensor est un protocole informatique décentralisé construit sur Substrate, qui tente de répondre à la question : "Comment transformons-nous l'intelligence artificielle en une méthode collaborative ?" Bittensor vise à réaliser la décentralisation et la marchandisation de la génération d'IA. Lancé en 2021, il espère utiliser la puissance de modèles collaboratifs d'apprentissage automatique pour itérer continuellement et produire de meilleures IA.

Bittensor s'inspire de Bitcoin, avec sa monnaie native, TAO, ayant une limite d'approvisionnement de 21 millions et un cycle de division par deux tous les quatre ans (la première division par deux étant prévue pour 2025). Contrairement à l'utilisation de la preuve de travail pour générer des nombres aléatoires corrects et gagner des récompenses de bloc, Bittensor repose sur la "Preuve d'Intelligence", obligeant les mineurs à exécuter des modèles pour générer des sorties en réponse aux demandes d'inférence.

Incitation à l’intelligence

Initialement, Bittensor s'appuyait sur un modèle Mixture of Experts (MoE) pour générer des sorties. Lorsqu'une demande d'inférence est soumise, le modèle MoE ne repose pas sur un modèle généralisé, mais transmet la demande au modèle le plus précis pour le type d'entrée donné. Imaginez la construction d'une maison, où vous engagez divers experts pour différents aspects du processus de construction (par exemple, architectes, ingénieurs, peintres, ouvriers du bâtiment, etc.). MoE applique cela aux modèles d'apprentissage automatique, essayant de tirer parti des sorties de différents modèles en fonction de l'entrée. Comme l'explique le fondateur de Bittensor, Ala Shaabana, c'est comme "parler à une pièce pleine de gens intelligents pour obtenir la meilleure réponse, plutôt que de parler à une seule personne." En raison des défis liés à l'assurance d'un routage correct, à la synchronisation des messages vers le modèle approprié et aux incitations, cette méthode a été mise de côté jusqu'au développement ultérieur du projet.

Dans le réseau Bittensor, il y a deux principaux participants : les validateurs et les mineurs. Les validateurs envoient des demandes d'inférence aux mineurs, examinent leurs sorties et les classent en fonction de la qualité de leurs réponses. Pour garantir que leurs classements sont fiables, les validateurs se voient attribuer un score de "vtrust" basé sur la cohérence de leurs classements avec ceux des autres validateurs. Plus le score de "vtrust" d'un validateur est élevé, plus il reçoit d'émissions de TAO. Cela vise à encourager les validateurs à parvenir à un consensus sur les classements des modèles au fil du temps, car plus les validateurs sont d'accord sur les classements, plus leurs scores de "vtrust" individuels sont élevés.

Les mineurs, également appelés serveurs, sont des participants du réseau qui exécutent les modèles d'apprentissage automatique réels. Ils se disputent pour fournir les sorties les plus précises aux requêtes des validateurs, et plus les sorties sont précises, plus ils gagnent d'émissions de TAO. Les mineurs sont libres de générer ces sorties comme ils le souhaitent. Par exemple, à l'avenir, il est tout à fait possible que les mineurs de Bittensor aient précédemment formé des modèles sur Gensyn et les utilisent pour gagner des émissions de TAO.

Aujourd'hui, la plupart des interactions se font directement entre les validateurs et les mineurs. Les validateurs soumettent des entrées aux mineurs et demandent des sorties (c'est-à-dire, l'entraînement du modèle). Une fois que les validateurs interrogent les mineurs sur le réseau et reçoivent leurs réponses, ils classent les mineurs et soumettent leurs classements au réseau.

L'interaction entre les validateurs (reposant sur PoS) et les mineurs (reposant sur Model Proof, une forme de PoW) est connue sous le nom de consensus Yuma. Il vise à inciter les mineurs à produire les meilleurs résultats pour gagner des émissions de TAO et à inciter les validateurs à classer avec précision les résultats des mineurs, en augmentant ainsi leurs scores de vtrust et leurs récompenses en TAO, formant ainsi un mécanisme de consensus pour le réseau.

Sous-réseaux et Applications

Les interactions sur Bittensor impliquent principalement que les validateurs soumettent des requêtes aux mineurs et évaluent leurs sorties. Cependant, à mesure que la qualité des mineurs contributeurs s'améliore et que l'intelligence globale du réseau augmente, Bittensor crée une couche d'application au-dessus de sa pile existante afin que les développeurs puissent construire des applications interrogeant le réseau Bittensor.

En octobre 2023, Bittensor a introduit des sous-réseaux via la mise à niveau Revolution, franchissant ainsi une étape importante vers la réalisation de cet objectif. Les sous-réseaux sont des réseaux distincts sur Bittensor qui incitent à des comportements spécifiques. La Revolution a ouvert le réseau à toute personne intéressée par la création de sous-réseaux. Dans les mois suivant son lancement, plus de 32 sous-réseaux ont été lancés, notamment des sous-réseaux pour les invitations textuelles, le scraping de données, la génération et le stockage d'images. Au fur et à mesure que les sous-réseaux se développent et deviennent prêts pour le produit, les créateurs de sous-réseaux créeront également des intégrations d'applications, permettant aux équipes de construire des applications qui interrogent des sous-réseaux spécifiques. Certaines applications, telles que des chatbots, des générateurs d'images, des bots de réponse Twitter et des marchés de prédiction, existent, mais il n'y a pas d'incitations formelles au-delà du financement de la Fondation Bittensor pour que les validateurs acceptent et transmettent ces requêtes.

Pour une explication plus claire, voici un exemple de la façon dont Bittensor pourrait fonctionner une fois que les applications sont intégrées dans le réseau.

Les sous-réseaux gagnent des TAO en fonction de leurs performances évaluées par le réseau racine. Le réseau racine, situé au-dessus de tous les sous-réseaux, agit essentiellement comme un sous-réseau spécial et est géré par les 64 plus grands validateurs de sous-réseaux en termes d'enjeu. Les validateurs du réseau racine classent les sous-réseaux en fonction de leurs performances et attribuent périodiquement des émissions de TAO aux sous-réseaux. De cette manière, les sous-réseaux individuels agissent comme des mineurs pour le réseau racine.

La vision de Bittensor

Bittensor éprouve encore des difficultés de croissance alors qu'il élargit la fonctionnalité du protocole pour inciter à la génération d'intelligence à travers plusieurs sous-réseaux. Les mineurs élaborent constamment de nouvelles façons d'attaquer le réseau pour obtenir plus de récompenses TAO, par exemple en modifiant légèrement la sortie des inférences très bien notées exécutées par leurs modèles, puis en soumettant plusieurs variantes. Les propositions de gouvernance affectant l'ensemble du réseau ne peuvent être soumises et mises en œuvre que par le Triumvirat, composé entièrement des parties prenantes de la Fondation Opentensor (notamment, les propositions nécessitent l'approbation du Sénat de Bittensor, composé des validateurs de Bittensor, avant leur mise en œuvre). La tokenomie du projet est en cours de modification pour renforcer les incitations à l'utilisation inter-sous-réseau de TAO. Le projet a également rapidement gagné en notoriété pour son approche unique, avec le PDG de l'un des sites d'IA les plus populaires, HuggingFace, affirmant que Bittensor devrait ajouter ses ressources au site.

Dans un article récent intitulé « Bittensor Paradigm » publié par les développeurs principaux, l’équipe a décrit la vision de Bittensor de devenir éventuellement « agnostique à ce qui est mesuré ». Théoriquement, cela pourrait permettre à Bittensor de développer des sous-réseaux qui incitent à tout type de comportement pris en charge par TAO. Il existe encore des limites pratiques considérables, notamment la preuve que ces réseaux peuvent évoluer pour gérer un éventail aussi diversifié de processus et que les incitations potentielles permettent de progresser au-delà des produits centralisés.

Création d’une pile informatique décentralisée pour les modèles d’intelligence artificielle

La section ci-dessus fournit un aperçu approfondi des différents types de protocoles informatiques d'intelligence artificielle (IA) décentralisée actuellement en développement. Dans leurs premières phases de développement et d'adoption, ils posent les bases d'un écosystème qui pourrait éventuellement faciliter la création de « blocs de construction d'IA », similaire au concept de « Legos monétaires » dans la DeFi. La composabilité des blockchains sans permission permet à chaque protocole d'être construit sur un autre, créant un écosystème d'IA décentralisé plus complet.
Par exemple, voici comment Akash, Gensyn et Bittensor pourraient tous interagir pour répondre aux demandes d'inférence.

Il est crucial de comprendre que ceci n'est qu'un exemple de ce qui pourrait se produire à l'avenir, et non une représentation de l'écosystème actuel, des partenariats existants ou des résultats potentiels. Les limites de l'interopérabilité et d'autres considérations décrites ci-dessous restreignent significativement les possibilités d'intégration aujourd'hui. De plus, la fragmentation de la liquidité et la nécessité d'utiliser plusieurs jetons pourraient nuire à l'expérience utilisateur, un point relevé par les fondateurs d'Akash et de Bittensor.

Autres produits décentralisés

Au-delà de l'informatique, plusieurs autres services d'infrastructure décentralisée ont été introduits pour soutenir l'écosystème émergent de l'IA dans l'espace des cryptomonnaies. Énumérer tous ces éléments dépasse le cadre de ce rapport, mais quelques exemples intéressants et illustratifs incluent :

  • Ocean: Un marché de données décentralisé où les utilisateurs peuvent créer des NFT de données représentant leurs données et les acheter en utilisant des jetons de données. Les utilisateurs peuvent monétiser leurs données et avoir une plus grande souveraineté sur celles-ci, tout en fournissant aux équipes d'IA l'accès aux données nécessaires pour le développement et l'entraînement des modèles.
  • Grass: Un marché de la bande passante décentralisé où les utilisateurs peuvent vendre leur excès de bande passante à des entreprises d'IA, qui l'utilisent pour récupérer des données sur Internet. Construit sur le réseau Wynd, cela permet aux individus de monétiser leur bande passante et offre aux acheteurs de bande passante une perspective plus diversifiée sur ce que voient les utilisateurs individuels en ligne (puisque l'accès à Internet individuel est souvent personnalisé en fonction de leur adresse IP).
  • HiveMapper : Construit un produit de cartographie décentralisé incorporant des informations collectées auprès des conducteurs quotidiens. HiveMapper s'appuie sur l'IA pour interpréter les images collectées à partir des caméras de tableau de bord des utilisateurs et récompense ces derniers avec des jetons pour les aider à peaufiner les modèles d'IA grâce à la Rétroaction d'Apprentissage Humain Renforcée (RAHR).

Dans l'ensemble, ces exemples illustrent les opportunités presque illimitées d'explorer des modèles de marché décentralisés qui soutiennent les modèles d'IA ou l'infrastructure périphérique nécessaire pour les développer. Actuellement, la plupart de ces projets en sont au stade de la preuve de concept et nécessitent des recherches et développements supplémentaires pour prouver qu'ils peuvent fonctionner à l'échelle nécessaire pour fournir des services d'IA complets.

Perspective

Les produits de calcul décentralisé en sont encore à leurs débuts. Ils viennent tout juste de lancer des capacités de calcul de pointe, capables de former les modèles d'intelligence artificielle les plus puissants en production. Pour gagner une part de marché significative, ils doivent démontrer des avantages réels par rapport aux alternatives centralisées. Les déclencheurs potentiels d'une adoption plus large comprennent :

  • Approvisionnement/Demande de GPU. La rareté des GPU combinée à une demande croissante en matière de calcul conduit à une course aux armements GPU. En raison des limitations des GPU, OpenAI a parfois restreint l'accès à sa plateforme. Des plateformes comme Akash et Gensyn peuvent offrir des alternatives compétitives en termes de coûts pour les équipes ayant besoin de calcul haute performance. Les 6 à 12 prochains mois offrent une opportunité particulièrement unique pour les fournisseurs de calcul décentralisé d'attirer de nouveaux utilisateurs contraints de considérer des produits décentralisés en raison d'un manque d'accès au marché plus large. De plus, avec l'amélioration croissante des performances des modèles open-source tels que le LLaMA2 de Meta, les utilisateurs ne sont plus confrontés aux mêmes barrières lors du déploiement de modèles affinés efficaces, faisant des ressources de calcul le principal goulot d'étranglement. Cependant, la simple existence de plateformes ne garantit pas un approvisionnement suffisant en calcul et une demande correspondante des consommateurs. L'approvisionnement en GPU haut de gamme reste un défi, et le coût n'est pas toujours le principal moteur de la demande. Ces plateformes devront relever le défi de démontrer les avantages réels de l'utilisation des options de calcul décentralisé (que ce soit en raison du coût, de la résistance à la censure, du temps de disponibilité et de la résilience, ou de l'accessibilité) pour attirer des utilisateurs fidèles. Elles doivent agir rapidement car les investissements et constructions en infrastructures de GPU progressent à un rythme stupéfiant.
  • La régulation. La régulation reste un obstacle au mouvement informatique décentralisé. À court terme, le manque de réglementation claire signifie que les fournisseurs et les utilisateurs encourent des risques potentiels en utilisant ces services. Et si les fournisseurs proposent des calculs ou si les acheteurs achètent involontairement des calculs auprès d'entités sanctionnées ? Les utilisateurs pourraient hésiter à utiliser des plates-formes décentralisées dépourvues de contrôle et de supervision centralisés. Les protocoles tentent d'atténuer ces préoccupations en incorporant des contrôles dans leurs plates-formes ou en ajoutant des filtres pour n'accéder qu'à des fournisseurs de calcul connus (c'est-à-dire ceux qui ont fourni des informations Know Your Customer (KYC)), mais une approche plus robuste est nécessaire pour protéger la vie privée tout en garantissant la conformité. À court terme, nous pourrions voir l'émergence de plates-formes de KYC et de conformité qui restreignent l'accès à leurs protocoles pour résoudre ces problèmes. De plus, les discussions autour d'un possible nouveau cadre réglementaire aux États-Unis (illustré par la publication de l'ordonnance exécutive sur la promotion d'un développement et d'une utilisation sûrs, fiables et dignes de confiance de l'intelligence artificielle) soulignent le potentiel d'actions réglementaires pour restreindre davantage l'accès aux GPU.
  • La censure. La réglementation est une arme à double tranchant, et les produits informatiques décentralisés pourraient bénéficier des actions limitant l'accès à l'IA. Au-delà des ordres exécutifs, le fondateur d'OpenAI, Sam Altman, a témoigné au Congrès que les régulateurs devraient délivrer des licences pour le développement de l'IA. Les discussions sur la réglementation de l'IA ne font que commencer, mais toute tentative de restreindre l'accès ou de censurer les capacités de l'IA pourrait accélérer l'adoption de plateformes décentralisées qui ne sont pas confrontées à de telles barrières. Les changements de direction (ou leur absence) chez OpenAI en novembre indiquent en outre que confier le pouvoir de décision des modèles d'IA existants les plus puissants à quelques-uns comporte des risques. De plus, tous les modèles d'IA reflètent inévitablement les biais de ceux qui les créent, que ce soit intentionnellement ou non. Une manière d'éliminer ces biais est de rendre les modèles aussi ouverts que possible pour les ajuster et les entraîner, en garantissant à chacun, où qu'il soit, un accès à une variété de modèles avec des biais différents.
  • Confidentialité des données. La informatique décentralisée pourrait être plus attrayante que les alternatives centralisées lorsqu'elle est intégrée à des solutions externes de données et de confidentialité qui offrent aux utilisateurs la souveraineté des données. Samsung est devenu une victime lorsqu'il a réalisé que les ingénieurs utilisaient ChatGPT pour la conception de puces et divulguaient des informations sensibles à ChatGPT. Phala Network et iExec affirment fournir aux utilisateurs des enclaves sécurisées SGX pour protéger les données des utilisateurs, et la recherche en chiffrement entièrement homomorphe en cours pourrait encore débloquer l'informatique décentralisée assurant la confidentialité. À mesure que l'IA s'intègre davantage dans nos vies, les utilisateurs valoriseront de plus en plus la capacité d'exécuter des modèles sur des applications avec une protection de la confidentialité. Les utilisateurs ont également besoin de support pour les services de composition de données, afin de pouvoir transférer des données d'un modèle à un autre de manière transparente.
  • L'expérience utilisateur (UX). L'expérience utilisateur reste un obstacle majeur à une adoption plus large de tous les types d'applications et d'infrastructures cryptographiques. Il en va de même pour les produits de calcul décentralisé et est exacerbé dans certains cas en raison de la nécessité pour les développeurs de comprendre à la fois la cryptomonnaie et l'IA. Les améliorations doivent commencer par les bases, telles que rejoindre et extraire des interactions avec la blockchain, pour fournir la même qualité de sortie que les leaders actuels du marché. Cela est évident étant donné la difficulté que rencontrent de nombreux protocoles de calcul décentralisé fonctionnels offrant des produits moins chers à obtenir une utilisation régulière.

Contrats intelligents et zkML

Les contrats intelligents sont la pierre angulaire de tout écosystème blockchain. Ils s'exécutent automatiquement sous un ensemble de conditions spécifiques, réduisant ou éliminant le besoin de tiers de confiance, permettant ainsi la création d'applications décentralisées complexes, telles que celles de la DeFi. Cependant, la fonctionnalité des contrats intelligents est encore limitée car ils fonctionnent sur la base de paramètres prédéfinis qui doivent être mis à jour.

Par exemple, un contrat intelligent déployé pour un protocole de prêt/emprunt, qui contient des spécifications sur quand les positions doivent être liquidées en fonction de ratios spécifiques prêt-valeur. Bien utiles dans des environnements statiques, ces contrats intelligents nécessitent des mises à jour constantes pour s'adapter aux changements de tolérance au risque dans des situations dynamiques, ce qui pose des défis pour les contrats non gérés par des processus centralisés. Par exemple, les DAOs qui reposent sur des processus de gouvernance décentralisée peuvent ne pas réagir suffisamment rapidement aux risques systémiques.

L’intégration de l’intelligence artificielle (c’est-à-dire des modèles d’apprentissage automatique) dans les contrats intelligents est un moyen potentiel d’améliorer les fonctionnalités, la sécurité et l’efficacité tout en améliorant l’expérience globale de l’utilisateur. Cependant, ces intégrations introduisent également des risques supplémentaires, car il est impossible de garantir que les modèles qui sous-tendent ces contrats intelligents ne seront pas exploités ou ne parviendront pas à interpréter les situations de longue traîne (compte tenu de la rareté des entrées de données, les situations de longue traîne sont difficiles à entraîner pour les modèles).

Apprentissage automatique à divulgation nulle de connaissance (zkML)

L'apprentissage automatique nécessite une puissante puissance de calcul pour exécuter des modèles complexes, ce qui rend impraticable l'exécution directe de modèles d'IA dans des contrats intelligents en raison des coûts élevés. Par exemple, un protocole DeFi offrant des modèles d'optimisation du rendement trouverait difficile d'exécuter ces modèles on-chain sans encourir des frais de gaz prohibitifs. Une solution consiste à augmenter les capacités de calcul de la blockchain sous-jacente. Cependant, cela soulève également les exigences des validateurs de la chaîne, compromettant potentiellement la décentralisation. Au lieu de cela, certains projets explorent l'utilisation de zkML pour vérifier les sorties de manière décentralisée sans nécessiter de calcul intensif on-chain.

Un exemple courant illustrant l'utilité du zkML est lorsque les utilisateurs ont besoin que d'autres exécutent des données à travers des modèles et vérifient que leurs homologues ont effectivement exécuté le modèle correct. Les développeurs utilisant des fournisseurs de calcul décentralisés pour entraîner leurs modèles pourraient craindre que ces fournisseurs réduisent les coûts en utilisant des modèles moins chers produisant des sorties avec des différences presque imperceptibles. Le zkML permet aux fournisseurs de calcul d'exécuter des données à travers leurs modèles, puis de générer des preuves vérifiables on-chain, prouvant que les sorties du modèle pour des entrées données sont correctes. Dans ce scénario, le fournisseur de modèle obtient l'avantage supplémentaire de pouvoir proposer son modèle sans révéler les poids sous-jacents ayant produit les sorties.

Il est également possible de faire l'inverse. Si les utilisateurs souhaitent exécuter des modèles sur leurs données mais ne souhaitent pas donner accès aux projets de modèles à leurs données en raison de préoccupations concernant la confidentialité (par exemple, dans les vérifications médicales ou les informations commerciales exclusives), ils peuvent exécuter le modèle sur leurs données sans partager les données, puis vérifier à travers des preuves qu'ils ont exécuté le bon modèle. Ces possibilités étendent considérablement l'espace de conception pour l'intégration des fonctionnalités d'IA et de contrats intelligents en abordant des contraintes computationnelles redoutables.

Infrastructure et outils

Étant donné le stade précoce du domaine zkML, le développement est principalement axé sur la construction de l'infrastructure et des outils dont les équipes ont besoin pour convertir leurs modèles et leurs sorties en preuves vérifiables on-chain. Ces produits abstraient autant que possible les aspects de la connaissance nulle.

EZKL et Giza sont deux projets construisant de tels outils en fournissant des preuves vérifiables de l'exécution du modèle d'apprentissage automatique. Les deux aident les équipes à construire des modèles d'apprentissage automatique pour garantir que ces modèles peuvent s'exécuter de manière à ce que les résultats puissent être vérifiés de manière fiable sur la chaîne. Les deux projets utilisent l'Échange de Réseaux Neuronaux Ouverts (ONNX) pour convertir des modèles d'apprentissage automatique écrits dans des langages courants comme TensorFlow et Pytorch en un format standard. Ils produisent ensuite des versions de ces modèles qui génèrent également des preuves zk à l'exécution. EZKL est open-source, produisant zk-SNARKs, tandis que Giza est closed-source, produisant zk-STARKs. Les deux projets sont actuellement uniquement compatibles avec l'EVM.

Ces derniers mois, EZKL a réalisé des progrès significatifs dans l'amélioration des solutions zkML, en se concentrant principalement sur la réduction des coûts, l'amélioration de la sécurité et l'accélération de la génération de preuves. Par exemple, en novembre 2023, EZKL a intégré une nouvelle bibliothèque GPU open source qui a réduit le temps de preuve d'agrégation de 35 % ; en janvier, EZKL a publié Lilith, une solution logicielle pour intégrer des clusters informatiques haute performance et orchestrer des systèmes de tâches concurrentes lors de l'utilisation de preuves EZKL. La spécificité de Giza réside dans la fourniture d'outils pour créer des modèles d'apprentissage automatique vérifiables et prévoir la mise en place d'un équivalent web3 de Hugging Face, ouvrant ainsi un marché aux utilisateurs pour la collaboration zkML et le partage de modèles, et intégrant éventuellement des produits informatiques décentralisés. En janvier, EZKL a publié une évaluation comparative des performances d'EZKL, Giza et RiscZero (tel que décrit ci-dessous), mettant en avant des temps de preuve plus rapides et une utilisation de la mémoire plus efficace.

Modulus Labs développe actuellement une nouvelle technologie de preuve de connaissance nulle (zk) spécifiquement adaptée aux modèles d'IA. Modulus a publié un document intitulé « Coût intelligent », qui implique que l'exécution des modèles d'IA on-chain entraîne des coûts prohibitifs. Ce document, publié en janvier 2023, compare les systèmes de preuve zk existants pour identifier les améliorations de la capacité des preuves zk et les goulots d'étranglement au sein des modèles d'IA. Il révèle que les produits actuels sont trop chers et inefficaces pour les applications d'IA à grande échelle. S'appuyant sur des recherches initiales, Modulus a lancé Remainder en novembre, un prouveur zk spécialisé visant à réduire le coût et le temps de preuve pour les modèles d'IA, rendant les projets économiquement viables pour une intégration à grande échelle dans les contrats intelligents. Leur travail est propriétaire, ce qui rend impossible la comparaison avec les solutions mentionnées, mais il a récemment été cité dans l'article de blog de Vitalik sur la cryptographie et l'intelligence artificielle.

Le développement d'outils et d'infrastructures est crucial pour la croissance future de l'espace zkML, car il peut réduire significativement les frictions liées au déploiement de calculs vérifiables hors chaîne et au besoin d'équipes zk. La création d'interfaces sécurisées pour les praticiens du machine learning non natifs de la crypto leur permettra de mettre leurs modèles sur chaîne, ce qui permettra aux applications d'expérimenter de véritables cas d'utilisation novateurs. De plus, ces outils abordent un obstacle majeur à l'adoption plus large du zkML : le manque de développeurs compétents intéressés à travailler à l'intersection de la preuve de connaissance nulle, du machine learning et de la cryptographie.

Coprocesseur

D'autres solutions en développement, appelées « coprocesseurs » (y compris RiscZero, Axiom et Ritual), remplissent divers rôles, notamment la vérification des calculs hors chaîne sur la chaîne. Comme EZKL, Giza et Modulus, leur objectif est d'abstraire entièrement le processus de génération de preuve zk, créant des machines virtuelles à connaissance nulle capables d'exécuter des programmes hors chaîne et de générer des preuves vérifiables sur chaîne. RiscZero et Axiom s'adressent à des modèles d'IA simples en tant que coprocesseurs plus généraux, tandis que Ritual est spécifiquement conçu pour être utilisé avec des modèles d'IA.

Le premier cas d'utilisation de Ritual, Infernet, comprend un kit de développement logiciel Infernet qui permet aux développeurs de soumettre des demandes d'inférence au réseau et de recevoir en retour des sorties et des preuves facultatives. Les nœuds Infernet traitent ces calculs hors chaîne avant de renvoyer les sorties. Par exemple, un DAO pourrait établir un processus garantissant que toutes les nouvelles propositions de gouvernance remplissent certaines conditions préalables avant leur soumission. Chaque fois qu'une nouvelle proposition est soumise, le contrat de gouvernance déclenche une demande d'inférence via Infernet, invoquant un modèle d'IA spécialement formé pour la gouvernance de DAO. Ce modèle examine la proposition pour s'assurer que toutes les normes nécessaires sont respectées et renvoie des résultats et des preuves pour approuver ou rejeter la soumission de la proposition.

Au cours de l’année prochaine, l’équipe de Ritual prévoit d’introduire d’autres fonctionnalités, formant une couche d’infrastructure connue sous le nom de superchaîne Ritual. De nombreux projets discutés pourraient être intégrés en tant que prestataires de services dans Ritual. L’équipe de Ritual s’est déjà intégrée à EZKL pour la génération de preuves et pourrait bientôt ajouter des fonctionnalités d’autres fournisseurs de premier plan. Les nœuds Infernet sur Ritual peuvent également utiliser des GPU Akash ou io.net et des modèles de requête entraînés sur le sous-réseau Bittensor. Leur objectif ultime est de devenir le fournisseur privilégié d’infrastructures d’IA ouvertes, offrant des services d’apprentissage automatique et d’autres tâches liées à l’IA pour n’importe quel réseau et n’importe quelle charge de travail.

Applications

zkML aide à réconcilier la dichotomie entre la blockchain, qui est intrinsèquement limitée en ressources, et l’intelligence artificielle, qui nécessite d’importantes ressources de calcul et de données. Comme le dit l’un des fondateurs de Gizeh, « les cas d’utilisation sont incroyablement riches... C’est un peu comme demander quels étaient les cas d’utilisation des contrats intelligents aux débuts d’Ethereum... Ce que nous faisons, c’est simplement élargir les cas d’utilisation des contrats intelligents. Cependant, comme nous l’avons mentionné, le développement actuel se fait principalement au niveau des outils et de l’infrastructure. Les applications sont encore en phase exploratoire, les équipes étant confrontées au défi de prouver que la valeur générée par la mise en œuvre de modèles avec zkML l’emporte sur sa complexité et son coût.

Les applications actuelles incluent:

  • La finance décentralisée (DeFi). zkML améliore les capacités des contrats intelligents, améliorant l'espace de conception pour DeFi. Les protocoles DeFi offrent une multitude de données vérifiables et immuables pour les modèles d'apprentissage automatique à utiliser dans la génération de rendement ou de stratégies de trading, l'analyse des risques, l'expérience utilisateur, etc. Par exemple, Giza a collaboré avec Yearn Finance pour construire un moteur d'évaluation des risques automatique de proof-of-concept pour les nouveaux coffres-forts v3 de Yearn. Modulus Labs travaille avec Lyra Finance pour intégrer l'apprentissage automatique dans son AMM, avec Ion Protocol pour mettre en œuvre des modèles d'analyse des risques des validateurs, et aide Upshot à valider ses informations de tarification NFT prises en charge par l'IA. Des protocoles comme NOYA (utilisant EZKL) et Mozaic offrent un accès à des modèles propriétaires hors chaîne, permettant aux utilisateurs d'accéder à l'extraction de liquidité automatisée tout en validant les entrées de données et les preuves en chaîne. Spectral Finance développe un moteur de notation de crédit en chaîne pour prédire la probabilité de défaut des emprunteurs de Compound ou Aave. Grâce à zkML, ces produits dits "De-Ai-Fi" devraient devenir de plus en plus populaires dans les années à venir.
  • Jeu. Les jeux ont longtemps été envisagés pour la perturbation et l’amélioration par le biais de blockchains publiques. zkML permet des jeux d’intelligence artificielle sur la chaîne. Modulus Labs a réalisé une preuve de concept pour des jeux simples sur la chaîne. « Leela vs the World » est un jeu d’échecs basé sur la théorie des jeux où les utilisateurs s’affrontent contre un modèle d’échecs IA, zkML vérifiant chaque mouvement de Leela en fonction du modèle de course du jeu. De même, les équipes utilisent le cadre EZKL pour créer des concours de chant simples et des tic-tac-toe sur la chaîne. Cartridge utilise Gizeh pour permettre aux équipes de déployer des jeux entièrement sur la chaîne, mettant récemment en avant un jeu de conduite simple basé sur l’IA où les utilisateurs peuvent s’affronter pour créer de meilleurs modèles de voitures essayant d’éviter les obstacles. Bien que simples, ces preuves de concept laissent présager de futures implémentations capables d’une vérification on-chain plus complexe, telles que des acteurs PNJ complexes capables d’interagir avec les économies du jeu, comme on le voit dans « AI Arena », un jeu Super Smash Brothers où les joueurs peuvent entraîner leurs guerriers, puis les déployer comme modèles d’IA pour se battre.
  • Identité, Provenance et Confidentialité. Les cryptomonnaies ont été utilisées pour vérifier l'authenticité et lutter contre le problème croissant de contenus générés/manipulés par l'IA et de deepfakes. zkML peut faire progresser ces efforts. WorldCoin est une solution de vérification d'identité qui exige que les utilisateurs scannent leurs iris pour générer un identifiant unique. À l'avenir, les identifiants biométriques pourraient être auto-hébergés sur des appareils personnels à l'aide de chiffrement et vérifiés à l'aide de modèles s'exécutant localement. Les utilisateurs pourraient alors fournir des preuves biométriques sans révéler leur identité, défendant ainsi contre les attaques Sybil tout en assurant la confidentialité. Cela pourrait également s'appliquer à d'autres inférences nécessitant la confidentialité, telles que l'utilisation de modèles pour analyser des données/images médicales en vue de la détection de maladies, vérifier des personnalités et développer des algorithmes de correspondance dans les applications de rencontres, ou encore les institutions d'assurance et de prêt ayant besoin de vérifier des informations financières.

Perspective

zkML reste expérimental, la plupart des projets se concentrant sur la construction d'infrastructures primitives et de preuves de concept. Les défis actuels comprennent les coûts de calcul, les limitations de mémoire, la complexité du modèle, les outils et infrastructures limités, et le talent des développeurs. En bref, il y a un travail considérable à faire avant que zkML puisse être mis en œuvre à l'échelle requise par les produits grand public.

Cependant, à mesure que le domaine mûrit et que ces limitations sont abordées, le zkML deviendra un élément clé de l'intégration de l'intelligence artificielle avec la cryptographie. Fondamentalement, le zkML promet d'amener n'importe quelle échelle de calcul hors chaîne sur la chaîne, tout en maintenant les mêmes garanties de sécurité ou similaires que l'exécution sur chaîne. Pourtant, avant que cette vision ne se concrétise, les premiers adoptants de la technologie devront continuer à équilibrer la confidentialité et la sécurité du zkML par rapport à l'efficacité des alternatives.

Agents d'Intelligence Artificielle

Agents d’intelligence artificielle

L'une des intégrations les plus passionnantes de l'intelligence artificielle et de la cryptomonnaie est l'expérience en cours avec des agents d'intelligence artificielle. Les agents sont des robots autonomes capables de recevoir, d'interpréter et d'exécuter des tâches en utilisant des modèles d'IA. Cela pourrait aller d'avoir un assistant personnel disponible en tout temps, parfaitement adapté à vos préférences, à engager un agent financier pour gérer et ajuster votre portefeuille d'investissement en fonction de vos préférences en matière de risque.

Étant donné que la cryptomonnaie offre une infrastructure de paiement sans permission et sans confiance, les agents et la cryptomonnaie peuvent être bien intégrés. Une fois formés, les agents auront un portefeuille, ce qui leur permettra d'effectuer des transactions par eux-mêmes en utilisant des contrats intelligents. Par exemple, les agents d'aujourd'hui peuvent collecter des informations sur Internet, puis échanger sur les marchés de prédiction basés sur des modèles.

Fournisseurs d'agents

Morpheus est l'un des derniers projets d'agent open-source lancés en 2024 sur Ethereum et Arbitrum. Son livre blanc a été publié anonymement en septembre 2023, fournissant une base pour la formation et la construction de la communauté, avec des figures prominentes telles qu'Erik Vorhees. Le livre blanc comprend un protocole d'agent intelligent téléchargeable, un LLM open-source pouvant être exécuté localement, géré par le portefeuille de l'utilisateur, et interagir avec des contrats intelligents. Il utilise des classements de contrats intelligents pour aider les agents à déterminer avec quels contrats intelligents ils peuvent interagir en toute sécurité en fonction de critères tels que le nombre de transactions traitées.

Le livre blanc fournit également un cadre pour la construction du réseau Morpheus, y compris les structures d'incitation et l'infrastructure nécessaires pour exécuter le protocole d'agent intelligent. Cela inclut des incitations pour les contributeurs à construire des interfaces frontales pour interagir avec les agents, des API pour que les développeurs construisent des agents plug-in pour une interaction mutuelle, et des solutions cloud pour que les utilisateurs accèdent aux calculs et au stockage nécessaires pour exécuter des agents sur des appareils périphériques. Le financement initial du projet a été lancé début février, le protocole complet devant être lancé au deuxième trimestre de 2024.

Le réseau d'infrastructure autonome décentralisé (DAIN) est un nouveau protocole d'infrastructure d'agent construisant une économie d'agent à agent sur Solana. L'objectif de DAIN est de permettre aux agents de différentes entreprises d'interagir de manière transparente les uns avec les autres grâce à une API commune, ouvrant considérablement l'espace de conception pour les agents d'IA, en se concentrant sur les agents capables d'interagir à la fois avec des produits web2 et web3. En janvier, DAIN a annoncé son premier partenariat avec Asset Shield, permettant aux utilisateurs d'ajouter des "signataires d'agent" à leurs multisigs, capables d'interpréter des transactions et d'approuver/rejeter en fonction des règles définies par l'utilisateur.

Fetch.AI est l'un des premiers protocoles d'agents IA déployés et a développé un écosystème pour construire, déployer et utiliser des agents on-chain en utilisant des jetons FET et des portefeuilles Fetch.AI. Le protocole offre un ensemble complet d'outils et d'applications pour utiliser des agents, y compris des fonctions intégrées de portefeuille pour interagir avec et commander des agents.

Autonolas, fondé par d'anciens membres de l'équipe Fetch, est un marché ouvert pour la création et l'utilisation d'agents d'IA décentralisés. Autonolas fournit également un ensemble d'outils aux développeurs pour construire des agents d'IA hébergés hors chaîne pouvant se connecter à plusieurs blockchains, notamment Polygon, Ethereum, Gnosis Chain et Solana. Ils disposent actuellement de certains produits de preuve de concept d'agent actif, notamment pour les marchés prédictifs et la gouvernance des DAO.

SingularityNet construit un marché décentralisé pour les agents d'IA, où des agents d'IA spécialisés peuvent être déployés, qui peuvent être embauchés par d'autres agents pour effectuer des tâches complexes. D'autres entreprises comme AlteredStateMachine construisent des intégrations d'agents d'IA avec des NFT. Les utilisateurs créent des NFT avec des attributs aléatoires, ce qui leur donne des avantages et des inconvénients sur différentes tâches. Ces agents peuvent ensuite être formés pour améliorer certains attributs à utiliser dans les jeux, la DeFi, ou en tant qu'assistants virtuels et échangés avec d'autres utilisateurs.

Dans l'ensemble, ces projets envisagent un écosystème futur d'agents capables de travailler de manière collaborative non seulement pour effectuer des tâches, mais aussi pour aider à construire une intelligence artificielle générale. Les agents vraiment complexes auront la capacité d'accomplir de manière autonome n'importe quelle tâche utilisateur. Par exemple, des agents entièrement autonomes pourront trouver comment embaucher un autre agent pour intégrer une API, puis exécuter une tâche sans avoir à s'assurer que l'agent s'est déjà intégré à des API externes (comme les sites de réservation de voyages) avant utilisation. Du point de vue de l'utilisateur, il n'est pas nécessaire de vérifier si un agent peut accomplir une tâche, car l'agent peut déterminer cela par lui-même.

Bitcoin et Agents d'IA

En juillet 2023, Lightning Labs a lancé une implémentation de preuve de concept pour l'utilisation d'agents sur le Lightning Network, surnommée le Bitcoin suite par LangChain. Ce produit est particulièrement intrigant car il vise à résoudre un problème de plus en plus grave dans le monde Web 2 - les clés d'API fermées et coûteuses des applications web.

LangChain résout ce problème en fournissant aux développeurs un ensemble d’outils qui permettent aux agents d’acheter, de vendre et de détenir des bitcoins, ainsi que d’interroger des clés API et d’envoyer des micropaiements. Sur les rails de paiement traditionnels, les micropaiements sont d’un coût prohibitif en raison des frais, mais sur le Lightning Network, les agents peuvent envoyer un nombre illimité de micropaiements par jour à un coût minime. Lorsqu’il est utilisé en conjonction avec le cadre d’API de comptage de paiement L402 de LangChain, les entreprises peuvent ajuster les coûts d’accès de leurs API en fonction des augmentations et des diminutions de l’utilisation, plutôt que d’établir une norme unique et coûteuse.

À l'avenir, les activités de chaîne seront principalement stimulées par les interactions entre les agents et les agents, nécessitant des mécanismes pour garantir que les agents puissent interagir les uns avec les autres sans coûts prohibitifs. Cet exemple précoce montre le potentiel d'utiliser des agents sur des rails de paiement sans permission et économiquement efficaces, ouvrant des possibilités pour de nouveaux marchés et interactions économiques.

Perspective

Le domaine des agents en est encore à ses balbutiements. Les projets viennent tout juste de commencer à lancer des agents fonctionnels capables de gérer des tâches simples, un accès généralement limité aux développeurs et utilisateurs expérimentés. Cependant, avec le temps, l'un des impacts les plus significatifs des agents d'intelligence artificielle sur les cryptomonnaies sera l'amélioration de l'expérience utilisateur dans toutes les verticales. Les transactions commenceront à passer d'un clic à un texte, permettant aux utilisateurs d'interagir avec des agents on-chain via des interfaces conversationnelles. Des équipes comme Dawn Wallet ont déjà lancé des portefeuilles de chatbot, permettant aux utilisateurs d'interagir on-chain.

De plus, il reste encore à déterminer comment les agents fonctionneront dans le Web 2, car les rails financiers s'appuient sur des institutions bancaires réglementées qui ne peuvent pas fonctionner 24h/24 ou faciliter des transactions transfrontalières sans problème. Comme l'a souligné Lyn Alden, l'absence de remboursements et la capacité à gérer les microtransactions rendent les rails de cryptomonnaie particulièrement attrayants par rapport aux cartes de crédit. Cependant, si les agents deviennent un moyen de transaction plus courant, les fournisseurs de paiement et les applications existants sont susceptibles de s'adapter rapidement, en mettant en place l'infrastructure nécessaire pour fonctionner sur les rails financiers existants, diminuant ainsi certains avantages de l'utilisation de la cryptomonnaie.

Actuellement, les agents peuvent être limités aux transactions de cryptomonnaie déterministes, où une entrée donnée garantit une sortie donnée. Les deux modèles ont souligné la capacité de ces agents à comprendre comment accomplir des tâches complexes, et les outils étendent la gamme de tâches qu'ils peuvent accomplir, ce qui nécessite tous deux un développement ultérieur. Pour que les agents de cryptomonnaie deviennent utiles au-delà des nouveaux cas d'utilisation de la cryptomonnaie sur chaîne, une intégration et une acceptation plus larges de la cryptomonnaie en tant que forme de paiement, ainsi qu'une clarté réglementaire, sont nécessaires. Cependant, à mesure que ces composants se développent, les agents sont sur le point de devenir parmi les plus grands consommateurs de calcul décentralisé et de solutions zkML, recevant et résolvant de manière autonome toute tâche de manière non déterministe.

Conclusion

L'IA introduit les mêmes innovations dans la cryptomonnaie que celles que nous avons vues dans le web2, améliorant tout, du développement de l'infrastructure à l'expérience utilisateur et à l'accessibilité. Cependant, les projets en sont encore à leurs débuts et l'intégration à court terme de la cryptomonnaie et de l'IA sera principalement pilotée par des intégrations hors chaîne.

Des produits comme Copilot sont destinés à "augmenter l'efficacité des développeurs de 10 fois", et les applications Layer 1 et DeFi ont déjà lancé des plateformes de développement assistées par l'IA en collaboration avec des grandes entreprises comme Microsoft. Des entreprises telles que Cub3.ai et Test Machine développent des intégrations IA pour l'audit de contrats intelligents et la surveillance des menaces en temps réel afin d'améliorer la sécurité on-chain. Les chatbots LLM sont formés avec des données on-chain, de la documentation de protocole et des applications pour fournir aux utilisateurs une accessibilité et une expérience utilisateur améliorées.

Le défi des intégrations plus avancées qui tirent vraiment parti de la technologie sous-jacente des cryptomonnaies reste à prouver que la mise en œuvre de solutions d'IA on-chain est techniquement et économiquement faisable. Le développement de l'informatique décentralisée, du zkML et des agents d'IA laisse entrevoir des verticales prometteuses qui posent les bases d'un avenir profondément interconnecté de la cryptomonnaie et de l'IA.

Avertissement:

  1. Cet article est repris detechflow, Tous les droits d'auteur appartiennent à l'auteur original [Lucas Tcheyan]. Si vous avez des objections à cette réimpression, veuillez contacter le Gate Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, il est interdit de copier, distribuer ou plagier les articles traduits.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!