Exploration de l'IA Layer1 : Déverrouiller un nouveau paradigme de l'intelligence artificielle décentralisée

Rapport de recherche sur AI Layer1 : à la recherche d'un terreau DeAI off-chain

Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM ont démontré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.

Dans les premières étapes de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des problèmes clés tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur "l'IA pour le bien" ou "l'IA pour le mal" deviendra de plus en plus aigu, et les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique nécessaire pour faire face à ces défis.

La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et la largeur de l'innovation doivent être améliorées.

Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de supporter des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte en IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère de l'écosystème de l'IA décentralisée.

Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

Les caractéristiques clés de AI Layer 1

AI Layer 1 en tant que blockchain spécialement conçue pour les applications AI, son architecture sous-jacente et son design de performance sont étroitement liés aux besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI hors chaîne. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :

  1. Mécanisme d'incitation efficace et de consensus décentralisé

Le cœur d'AI Layer 1 réside dans la construction d'un réseau partagé ouvert pour des ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, effectuer l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure de l'IA. Cela pose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, garantissant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.

  1. Excellente performance élevée et capacité de prise en charge des tâches hétérogènes

Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge une variété de types de tâches hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios divers. La couche IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent s'exécuter efficacement et permettre une extension fluide de "tâches uniques" à un "écosystème complexe et diversifié".

  1. Vérifiabilité et garantie de sortie fiable

AI Layer 1 doit non seulement prévenir les risques de sécurité tels que les comportements malveillants des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats produits par l'IA depuis les mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence, d'entraînement et de traitement des données du modèle d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. Parallèlement, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des résultats de l'IA, réalisant ainsi "ce qui est obtenu est ce qui est souhaité", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.

  1. Protection de la vie privée des données

Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait garantir la vérifiabilité tout en adoptant des techniques de traitement de données basées sur le chiffrement, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et de prévenir efficacement les fuites et les abus de données, éliminant ainsi les préoccupations des utilisateurs concernant la sécurité des données.

  1. Capacités puissantes de support et de développement de l'écosystème

En tant qu'infrastructure Layer 1 native à l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, il est possible de promouvoir la mise en œuvre d'applications IA natives riches et diverses, et d'assurer la prospérité continue d'un écosystème d'IA décentralisé.

Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs des AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état actuel de développement des projets et en explorant les tendances futures.

Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche d'un terreau DeAI off-chain

Sentient : Construire des modèles d'IA décentralisés open source et fidèles

aperçu du projet

Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 (. La phase initiale est un Layer 2, puis elle sera migrée vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (Ouvert, Rentable, Loyal), permettant aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents IA équitable et ouvert.

L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de sciences, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis qu'un cofondateur d'une célèbre blockchain dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises réputées telles que Meta, Coinbase, ainsi que dans des établissements d'enseignement supérieur de premier plan tels que l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, unis pour faire avancer le projet.

En tant que projet de seconde création d'un cofondateur de chaîne publique bien connu, Sentient était dès le début accompagné d'une aura, bénéficiant de ressources riches, de réseaux et d'une reconnaissance sur le marché, fournissant un fort soutien au développement du projet. Au milieu de 2024, Sentient a complété un financement de série de graines de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres institutions d'investissement comprenant Delphi, Hashkey et Spartan, ainsi que des dizaines de VC renommés.

Biteye et PANews publient conjointement un rapport d'étude sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

architecture de conception et couche d'application

couche d'infrastructure

Architecture de base

L'architecture centrale de Sentient est composée de deux parties : le pipeline d'IA (AI Pipeline) et le système blockchain.

Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :​

  • Planification des données (Data Curation) : un processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
  • Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus d'entraînement aligné avec les intentions de la communauté.

Le système de blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :

  • Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
  • Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
  • Couche d'accès : Vérification des autorisations par preuve d'autorisation pour valider si l'utilisateur est autorisé ;
  • Couche d'incitation : le contrat de routage des revenus attribuera un paiement à chaque appel aux formateurs, déployeurs et validateurs.

Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche des terres fertiles pour DeAI off-chain

Cadre de modèle OML

Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :

  • Ouverture : le modèle doit être open source, avec un code et une structure de données transparents, permettant à la communauté de reproduire, d'auditer et d'améliorer.
  • Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les validateurs.
  • Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)

La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété à basse dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie de base est :

  • Intégration d'empreintes digitales : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
  • Protocole de vérification de la propriété : vérifier si l'empreinte digitale est conservée par le biais d'un détecteur tiers (Prover) sous forme de question de requête ;
  • Mécanisme d'appel autorisé : Avant l'appel, il est nécessaire d'obtenir un "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à retourner la réponse exacte.

Cette méthode permet de réaliser des "appels autorisés basés sur le comportement + vérification d'appartenance" sans coût de réencryption.

Modèle de droit de propriété et cadre d'exécution sécurisée

Sentient utilise actuellement la sécurité mixte Melange : une combinaison de la reconnaissance d'empreintes digitales, de l'exécution TEE et de la répartition des bénéfices des contrats off-chain. La méthode d'empreinte digitale est implémentée par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire par défaut conforme, détectable et punissable en cas de non-conformité.

Le mécanisme de l'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété et empêcher la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.

De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (tels que AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance élevée et de temps réel en font une technologie clé pour le déploiement actuel des modèles.

À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance (ZK) et un chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.

couche d'application

Actuellement, Sentient

DEAI-6.27%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 3
  • Partager
Commentaire
0/400
ConsensusDissentervip
· Il y a 11h
La monopolisation par l'IA est trop grave.
Voir l'originalRépondre0
OffchainWinnervip
· Il y a 11h
Il vaut la peine d'être étudié en profondeur.
Voir l'originalRépondre0
SorryRugPulledvip
· Il y a 11h
Décentralisation doit percer
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)