Rapport de recherche sur AI Layer1 : à la recherche d'un terreau pour DeAI off-chain
Aperçu
Contexte
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'imagination humaine, et démontrent même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et au contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation presque impossible.
Dans les premiers temps de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée aux problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur le fait de savoir si l'IA "se tourne vers le bien" ou "vers le mal" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour faire face proactivement à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" émergent déjà sur des blockchains majeures comme Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, et les propriétés de mème sont trop lourdes, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications AI, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches AI, visant à soutenir efficacement le développement et la prospérité durables de l'écosystème AI off-chain. Plus précisément, AI Layer 1 doit posséder les capacités centrales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser la formation et l'inférence de modèles d'IA, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées sur le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer avec précision, d'inciter et de valider la contribution réelle des nœuds dans les tâches d'inférence et de formation d'IA, réalisant ainsi la sécurité du réseau et la distribution efficace des ressources. Ce n'est qu'ainsi que la stabilité et la prospérité du réseau peuvent être garanties, tout en réduisant efficacement le coût global de la puissance de calcul.
Performance élevée exceptionnelle et capacité de support de tâches hétérogènes Les tâches AI, en particulier la formation et l'inférence des LLM, exigent des performances de calcul et une capacité de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent supporter une variété de types de tâches diversifiées et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage, etc. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité, de faible latence et de parallélisme élastique, et prévoir une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI peuvent fonctionner efficacement et permettant une extension fluide des "tâches unidimensionnelles" vers un "écosystème complexe et diversifié".
Vérifiabilité et garantie de résultats fiables L'AI Layer 1 doit non seulement prévenir les risques de malveillance des modèles, de falsification de données et d'autres problèmes de sécurité, mais aussi garantir, au niveau fondamental, la vérifiabilité et l'alignement des résultats générés par l'IA. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque inférence de modèle, formation et traitement de données puisse être vérifiée de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. De plus, cette vérifiabilité aide les utilisateurs à comprendre la logique et les fondements des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait, tout en garantissant la vérifiabilité, adopter des technologies de traitement des données basées sur le cryptage, des protocoles de calcul privé et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant ainsi efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs concernant la sécurité des données.
Une capacité puissante de soutien au développement et d'hébergement de l'écosystème En tant qu'infrastructure de base de couche 1 d'origine AI, la plateforme doit non seulement avoir un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services AI et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise le déploiement d'applications AI d'origine variées et riches, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements de la piste, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : Construire un modèle IA décentralisé open source loyal
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, propulsant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de la Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe proviennent de grandes entreprises telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de seconde entreprise de Sandeep Nailwal, cofondateur de Polygon, Sentient a dès ses débuts bénéficié d'un halo, avec des ressources, des contacts et une reconnaissance sur le marché riches, offrant un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a complété un financement de série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et plusieurs dizaines de VC renommés tels que Spartan.
![Biteye et PANews publient un rapport d'étude sur l'AI Layer1 : à la recherche d'un sol fertile pour DeAI hors chaîne])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
)# Conception de l'architecture et couche d'application
Infrastructure Layer
Architecture centrale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Planification des données (Data Curation) : un processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus d'entraînement aligné sur les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts AI, le suivi d'utilisation, la répartition des bénéfices et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stockage des poids du modèle et des informations d'enregistrement des empreintes digitales ;
Couche de distribution : point d'entrée du modèle de contrôle des contrats d'autorisation ;
Couche d'accès : Vérifie si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : Le contrat de routage des bénéfices attribuera chaque paiement à l'entraîneur, au déployeur et au vérificateur.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le principe central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, le code et la structure des données doivent être transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel du modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre le formateur, le déployeur et le vérificateur.
Fidélité : le modèle appartient à la communauté des contributeurs, la direction des mises à niveau et la gouvernance sont décidées par le DAO, et l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
![Biteye et PANews publient ensemble un rapport de recherche sur l'AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native AI utilise la continuité des modèles AI, la structure de variété de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie de base est :
Empreinte digitale : insérer un ensemble de paires clé-valeur de requête-réponse cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de la propriété : vérifiez si l'empreinte est conservée par le biais d'un détecteur tiers (Prover) sous forme de question par query ;
Mécanisme d'appel autorisé : Une "certificat d'autorisation" délivré par le propriétaire du modèle doit être obtenu avant l'appel, et le système autorisera ensuite le modèle à décoder cette entrée et à renvoyer une réponse précise.
Cette méthode permet de réaliser une "autorisation basée sur le comportement + validation d'appartenance" sans coût de réencryption.
Cadre de reconnaissance de modèle et d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : combinaison de l'authentification par empreinte digitale, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est réalisée par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, détection et sanction des violations.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui génère une signature unique pour le modèle en intégrant des paires "question-réponse" spécifiques pendant la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété et empêcher la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution fiables (tels que AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses performances élevées et sa réactivité en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Partager
Commentaire
0/400
NullWhisperer
· Il y a 6h
techniquement parlant... l'approche de sentient semble vulnérable aux mêmes vieux problèmes de centralisation, pour être honnête.
Voir l'originalRépondre0
LiquidationTherapist
· Il y a 6h
La recherche de fond est assez fiable.
Voir l'originalRépondre0
MEVHunterWang
· Il y a 6h
L'intelligence artificielle... contrôler l'humanité, je pense que c'est douteux~
Voir l'originalRépondre0
DeFiCaffeinator
· Il y a 6h
Pourquoi les géants centralisés sont-ils si avares ?
Voir l'originalRépondre0
NoodlesOrTokens
· Il y a 7h
Encore en train de dessiner des BTC, n'est-ce pas ?
Nouvelle étoile de l'IA Layer1 : Sentient construit une infrastructure DeAI off-chain.
Rapport de recherche sur AI Layer1 : à la recherche d'un terreau pour DeAI off-chain
Aperçu
Contexte
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'imagination humaine, et démontrent même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et au contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation presque impossible.
Dans les premiers temps de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée aux problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur le fait de savoir si l'IA "se tourne vers le bien" ou "vers le mal" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour faire face proactivement à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" émergent déjà sur des blockchains majeures comme Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, et les propriétés de mème sont trop lourdes, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications AI, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches AI, visant à soutenir efficacement le développement et la prospérité durables de l'écosystème AI off-chain. Plus précisément, AI Layer 1 doit posséder les capacités centrales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser la formation et l'inférence de modèles d'IA, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées sur le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer avec précision, d'inciter et de valider la contribution réelle des nœuds dans les tâches d'inférence et de formation d'IA, réalisant ainsi la sécurité du réseau et la distribution efficace des ressources. Ce n'est qu'ainsi que la stabilité et la prospérité du réseau peuvent être garanties, tout en réduisant efficacement le coût global de la puissance de calcul.
Performance élevée exceptionnelle et capacité de support de tâches hétérogènes Les tâches AI, en particulier la formation et l'inférence des LLM, exigent des performances de calcul et une capacité de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent supporter une variété de types de tâches diversifiées et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage, etc. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité, de faible latence et de parallélisme élastique, et prévoir une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI peuvent fonctionner efficacement et permettant une extension fluide des "tâches unidimensionnelles" vers un "écosystème complexe et diversifié".
Vérifiabilité et garantie de résultats fiables L'AI Layer 1 doit non seulement prévenir les risques de malveillance des modèles, de falsification de données et d'autres problèmes de sécurité, mais aussi garantir, au niveau fondamental, la vérifiabilité et l'alignement des résultats générés par l'IA. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque inférence de modèle, formation et traitement de données puisse être vérifiée de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. De plus, cette vérifiabilité aide les utilisateurs à comprendre la logique et les fondements des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait, tout en garantissant la vérifiabilité, adopter des technologies de traitement des données basées sur le cryptage, des protocoles de calcul privé et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant ainsi efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs concernant la sécurité des données.
Une capacité puissante de soutien au développement et d'hébergement de l'écosystème En tant qu'infrastructure de base de couche 1 d'origine AI, la plateforme doit non seulement avoir un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services AI et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise le déploiement d'applications AI d'origine variées et riches, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements de la piste, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : Construire un modèle IA décentralisé open source loyal
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, propulsant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de la Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe proviennent de grandes entreprises telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de seconde entreprise de Sandeep Nailwal, cofondateur de Polygon, Sentient a dès ses débuts bénéficié d'un halo, avec des ressources, des contacts et une reconnaissance sur le marché riches, offrant un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a complété un financement de série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et plusieurs dizaines de VC renommés tels que Spartan.
![Biteye et PANews publient un rapport d'étude sur l'AI Layer1 : à la recherche d'un sol fertile pour DeAI hors chaîne])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
)# Conception de l'architecture et couche d'application
Infrastructure Layer
Architecture centrale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts AI, le suivi d'utilisation, la répartition des bénéfices et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le principe central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
![Biteye et PANews publient ensemble un rapport de recherche sur l'AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native AI utilise la continuité des modèles AI, la structure de variété de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie de base est :
Cette méthode permet de réaliser une "autorisation basée sur le comportement + validation d'appartenance" sans coût de réencryption.
Cadre de reconnaissance de modèle et d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : combinaison de l'authentification par empreinte digitale, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est réalisée par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, détection et sanction des violations.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui génère une signature unique pour le modèle en intégrant des paires "question-réponse" spécifiques pendant la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété et empêcher la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution fiables (tels que AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses performances élevées et sa réactivité en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité.