2025年の新興AI検証ソリューション6つ

中級4/17/2025, 2:03:08 AM
この記事では、2025年のAI検証分野における最先端ソリューションを探求し、EigenLayer、Hyperbolic、Mira、Atoma、Fortytwo、およびLagrangeの6つの主要プロジェクトを詳細に分析します。これらのイニシアチブは、Proof-of-Sampling(PoSP)、Trusted Execution Environments(TEEs)、Zero-Knowledge Proofs(ZKPs)を含む多様な技術的アプローチを採用して、AI出力の信頼性の課題に対処しています。各ソリューションは独自の利点を提供し、特定のユースケースに適しており、分散型AIインフラの開発を共同で推進しています。

元のタイトル 'AIと検証可能性' を転送する

AIシステムがブロックチェーンエコシステムとますます統合するにつれて、AIの出力の検証可能性を確保することは、信頼、透明性、責任の促進のための要石になります。これは特に分散型ファイナンス(DeFi)や人物証明アプリケーションにとって重要であり、正確性と信頼性が直接的に金融の結果、ガバナンスの決定、およびユーザーの身元に影響を与えることができます。

分散システムにおける検証可能なAIのケース

AIオブザーバビリティ

意思決定プロセスが透明で理解しやすいことを保証します。ステークホルダーは、結論がどのように導かれるかを知ることができます。これは、決定がオンチェーン取引や大規模なガバナンスに影響を与える場合に不可欠です。

ソーストレーサビリティ

AI予測を生成するために使用されるデータ、パラメータ、およびモデルアーキテクチャを追跡します。起源を確立することで、ユーザーはトレーニングデータの出所や使用されたモデルを知ることができ、信頼を高め、誤情報の可能性を減らします。

出力検証

最終的なAI出力が正確かつ変更されていないことを確認します。分散コンテキストでは、これにはしばしば証明メカニズム(例:ゼロ知識証明、サンプリングコンセンサス)が関わり、計算や推論がオフチェーンで改ざんされていないことを保証します。

オンチェーンAI検証の課題

ブロックチェーンは不変の台帳と分散信頼を提供することに優れていますが、オンチェーンAI計算は非常に高額になることがあります。たとえば、1000×1000の整数の行列乗算の場合、数十億のガスが消費される可能性があります—それは現在のイーサリアムのブロックガスリミットを超えています(Zheng et al., 2021)。そのため、ほとんどのAIプロジェクトは、オンチェーンの検証を伴うオフチェーン計算に依存しています。

しかしながら、オフチェーンアプローチは新たな課題をもたらします:

潜在的な詐欺:堅牢な検証がないと、悪意のある行為者が間違ったデータや操作されたデータを提出する可能性があります。

中央集権化の弱点:オフチェーンのオラクルやプライベートサーバーに依存することは、分散型の理念を損ない、検閲や単一障害点を引き起こす可能性があります。

したがって、新興ソリューションは、高性能を維持しながら、暗号化またはサンプリングベースの検証を取り入れ、効率と分散をバランスさせることを目指しています。

EigenLayer

EigenLayerは、EthereumのバリデータがETHを「再ステーク」して、追加の分散型サービスであるActively Validated Services(AVS)を保護することを可能にする再ステーキングプロトコルです。専門的なタスク(例:AI検証、クロスチェーン操作)ごとに新しいバリデータセットが必要とされる代わりに、EigenLayerはEthereumの堅牢かつ分散型のバリデータネットワークを再利用しています。

EigenLayerは、新しいアクティブに検証されたサービス(AVS)がEthereumの既存のバリデータセットにアクセスできることで、セキュリティを強化しています。このバリデータセットはすでに大規模で資本力があり、地理的に分散しており、新しいネットワークをゼロからブートストラップする必要なく、頑健な暗号経済保証を提供しています。

restakingを有効にすることで、EigenLayerは運用オーバーヘッドを大幅に削減します。プロジェクトはもはや独自のバリデーターエコシステムを作成および維持する必要がなく、これによりインフラコストが低下し、新しい分散型サービスをチェーン上で簡単に開始する障壁も低くなります。

さらに、システムは高い柔軟性を提供しています。AVSは独自のコンセンサスと検証ロジックをカスタマイズできますが、それでもEthereumのベースレイヤーセキュリティを継承しており、EigenLayerはモジュラーで安全かつスケーラブルな分散型アプリケーションの理想的な基盤となっています。

ハイパーボリックのサンプリングの証明(PoSP)

Hyperbolic Labsは、AI検証のための伝統的なzkMLや楽観的な詐欺証拠の効率的でスケーラブルな代替手段であるProof of Sampling(PoSP)を導入しています。この革新的なサンプリングベースの検証プロトコルにより、ユーザーは、分散型GPUネットワーク上で訓練および実行されるモデルの結果を信頼できます。このPoSPとして知られるプロトコルは、AIにおける検証の新たなゴールドスタンダードです。

UCバークレーとコロンビア大学の研究者と協力してハイパーボリックチームによって開発されたPoSPは、ゲーム理論を使用して分散システムをセキュリティできます。それは戦略的な結果のサンプルを検証し、不正なノードに対する仲裁プロセスを実装し、ネットワーク全体で100%の誠実な行動を促進します。

Proof of Spontaneous Proofs(PoSP)にはいくつかの主な利点があります。それは、1%未満の計算オーバーヘッドを追加することで効率的な検証を可能にし、ノードがほぼネイティブの動作速度を維持できるようにします。その堅牢なセキュリティにより、参加者が正直であることが確保され、ランダムなチェックによって詐欺がリスクを冒す価値がなくなります。ゲーム理論的なインセンティブを通じて、PoSPは常に合理的な選択肢である正直な行動が支配戦略ナッシュ均衡を生み出します。最後に、PoSPはAIサービス向けに高度にスケーラブルであり、大規模な分散型AIワークロードをサポートする能力を持ちながら、高性能なコンピューティングおよび推論プロセスが検証可能かつ信頼できる状態を維持します。

ランダムな監査:EigenLayerを介して、一連のバリデータ(EigenLayerを介して)が定期的にサンプリングし、AIの計算をチェックします。この連続した検証により、システム的な不正行為が防止されます。

Nash Equilibrium Incentives: 悪意のある行動は、検証者にとって経済的に非合理であり、不正行為や一貫性のない出力は、削減可能なペナルティにつながります。

High Throughput: PoSPの低い性能オーバーヘッドは、迅速で頻繁なAI推論が必要なユースケースに適しています。

他の分散型AIソリューションとは異なり、Hyperbolicの分散型ネットワーク上で推論を実行するとき、信頼性のある結果を受け取っていることを確信できます。

EigenLayerにPoSPを統合することで、分散型AIサービスは、分散化やコスト効率を犠牲にすることなく、増加する推論リクエストを処理できる安全で信頼のあるフレームワークを実現できます。

ランダム検証: バリデータはランダムに選択され、出力を検証して、偏りのない結果を確認します。

Scalable AVSサポート:PoSPは計算要求を削減し、EigenLayerが大規模サービスを効率的にセキュリティできるようにしています。

詐欺防止:厳しいペナルティによって不正行為が不適切になり、正直な行動が最適な戦略のままである。

EigenLayerプロトコルとProof of Samplingプロトコルを組み合わせることで、分散型サービスのセキュリティを根本的に変えます。今、コストのわずかな部分でスケーラブルで信頼性の高い詐欺耐性のインフラを提供しています。- ハイパーボリックのCEO、Jasper Zhang


PoSPに関する完全な論文をこちらで読んでください

ミラ

Mira Networkは、AIにおける基本的な課題である大規模言語モデル(LLM)が誤った情報を生成する傾向に対処することを目指しています。人間の監視なしに幻覚を減らし、出力の正確さを最大化するために設計されたMiraは、独立したノードの分散ネットワークを活用して、AIの出力を信頼性のある方法で並行して検証します。

Miraのアーキテクチャには3つのステップがあります

二値化

より単純な「クレーム」に出力を分割する過程。

分散検証

上記の主張は、特化したモデルを実行して主張を検証する検証ノードネットワークによって検証されます。検証は多肢選択形式で行われます。検証のための主張はランダムに検証者間でシャーディングされるため、共謀を困難にします。

検証の証明

Proof-of-Work(PoW)とProof-of-Stake(PoS)を組み合わせたハイブリッドコンセンサスメカニズムが利用されています。各検証者は、検証に参加するためにステークをする必要があります。このアプローチにより、検証者が実際に推論を行っていることが保証され、単なる証明を行っているだけではありません。検証者の出力がコンセンサスから常に逸脱していることが判明した場合、検証者のステークは削減されます。

ネットワークによるアウトプットの合意が形成されると、暗号証明書が生成され、ブロックチェーンに書き込まれ、検証済みの事実の不変の記録が作成されます。


ソース:Mira Network Whitepaper

プライバシーはMiraの設計の重要な側面です。クレームがランダムにシャーディングされているため、単一のノードオペレーターが元の出力を再構築することはできません。さらに、独立した検証者からの検証応答は、コンセンサスが形成される前に非公開に保持され、情報漏洩を防いでいます。

Miraは、コード、構造化データ、マルチメディアコンテンツを含む、ますます複雑なコンテンツを検証しようとしています。将来、Miraは無効なコンテンツを検知した際にも無効なコンテンツを再構築し、AIの出力において精度とスピードの両方を実現します。最終的には、Mira Networkは経済的に保護された事実を蓄積し、事実検証のためのデータベースを作成することができるようになります。

ネットワークの利用が拡大するにつれて、より高い手数料の発生、より良い検証報酬の獲得、より多くのノードオペレーターの引きつけ、回答の検証における向上した精度、コスト、およびレイテンシーがもたらされます

アトマ

Atomaは、Suiメインネット上でライブ配信されている分散型でプライベートかつ検証可能なAI実行ネットワークです。コアアーキテクチャは、(a)計算レイヤー、(b)検証レイヤー、および(c)プライバシーレイヤーから構成されています。

コンピュートレイヤー

推論リクエストを処理するグローバルな実行ノードネットワーク。さまざまなデータセンターと個々のデジタルデバイスなどのエッジデバイスと連携して大量のノードが利用可能です。

Atomaを使用すると、モデルの重みはノード上でローカルに利用できるため、リクエストが受信されると推論速度が向上します。さらに、受信したリクエストは、タスクに対応する性能とコストに一致する最適なノードにルーティングされます。

Atomaは、FlashAttentionとPaged Attentionを含むいくつかの機能を通じて推論の効率を最適化することに重点を置いており、両方が計算オーバーヘッドを削減するのに貢献しています。

検証レイヤー

計算の整合性はサンプリングコンセンサスによって検証されます。これは、ノードが無作為に選択されて推論を実行し、出力の暗号ハッシュを生成するプロセスです。選択されたノードによって生成されたすべてのハッシュが一致する場合、推論結果が検証されます。生成されたハッシュの中に不一致がある場合、ネットワークは不誠実なノードを特定し、そのステークを削減することでペナルティを科します。

悪意のある攻撃者がシステムを操作するためにネットワーク全体のGPUパワーの半分以上を制御できる可能性は非常に低く、ノードネットワークがスケールするにつれてさらに困難になります。サンプリングに選択されるノードの数は柔軟であり、より高いステークのタスクでは、より大規模なノードセットが選択されることがあります。

プライバシーレイヤー

Atomaは、ユーザーデータを安全かつプライベートに保つことを重視しており、Trusted Execution Environment(TEE)で計算を実行しています。ユーザーによって入力されたデータは暗号化され、TEE内でのみ復号化されます。これにより、ブロックチェーン上の他の当事者がユーザーのデータを閲覧することを防いでいます。推論が実行された後、出力はユーザーに返される前に暗号化されます。

上記は安全なソリューションであるにもかかわらず、より高い計算オーバーヘッドに伴うトレードオフがあり、これによりユーザーの料金が高くなる可能性があることに注意する価値があります。

Aizel Network

Atoma Networkと同様に、Aizel NetworkはTEEベースのアプローチを採用しています。 ここでの違いは、AizelがワークフローにMulti-Party Computation(MPC)を統合していることで、推論タスクが異なるTEEにルーティングされるようになっています。これは、ネットワークを非中央集権化し、1つのTEEがハッキングされたりダウンしていたりしても、推論がまだ可能であることを確認することを目的としています。

Fortytwo

Fortytwo champions a “swarm inference” model built around Small, Specialized Models (SLMs). Instead of relying on one massive monolithic AI, the network orchestrates multiple contributor-run models, each fine-tuned for specific tasks or domains. These models work in parallel—verifying, refining, and cross-checking each other’s outputs—to deliver more accurate and trustworthy inferences.

この分散構造は、訓練のボトルネック、高コストなハードウェア要件、単一の障害点など、単一の大規模モデルがしばしば直面する問題に取り組んでいます。Fortytwoは、知能を多数の小さなモデルと貢献者に分散することで、拡張性と障害耐性の両方を確保しています。

1. 小規模専門モデル(SLMs)

意図優先の初期化

任務が開始される前に、寄稿者は目標、予算、制約を指定します。このアプローチにより、テキストの要約、コードの分析、その他の特殊推論など、どんなSLMでも全体的なミッションに合わせることができます。

貢献者によって定義された専門分野

個々のノードオペレーターは、独自に微調整されたモデルをネットワークに持ち込みます。彼らは重み、バイアス、および独自のデータを完全に制御し、各モデル所有者のプライバシーを確保します。これらの特殊なモデルは、感情分析、法的テキストの解析、または特定のドメインにおけるコード生成などの分野に焦点を当てることができます。

Weights & Biasesのプライバシー

Fortytwoの重要な側面は、貢献者がモデルの内部情報を共有する必要がないことです。推論結果のみがネットワークと共有されます。この設計により、各モデル所有者の知的財産が保護され、機密データの公開に伴うリスクが軽減されます。

2. スワーム推論&ピア評価

マルチSLMコラボレーション

タスクは、7〜8(またはそれ以上)の専門化されたSLMに分割されており、それぞれが独自のドメインの視点を提供しています。大きなタスクをより小さなサブ問題に分割することで、ネットワークは各モデルの強みをより効果的に活用しています。

Flat Mixture-of-Experts (MoE)

複数の層にサブエキスパートを積み重ねるのではなく、Fortytwoは各モデルがデータを独立して処理する「フラット」MoEアプローチを採用しています。この設計は、階層的なゲーティングからの複雑さを避け、専門家がそれぞれのサブタスクに集中できるため、特に効率的である可能性があります。

集合誤検出

ピア評価は推論の正確性を維持する上で重要な役割を果たしています。モデルの意見が分かれると、ネットワークはその相違をより深く分析するためにフラグを立てます。この相互検証プロセスは、エラーを早期に発見し、高品質な出力を確保する上で重要です。

3. 低遅延&分散コンピュート

コンシューマーグレードのハードウェア

Fortytwoは、Apple SiliconやRTX GPUなどのデバイス向けに最適化されており、コストの障壁を下げ、潜在的なノードオペレーターの基盤を広げています。このアプローチにより、より多くの個人が参加できるようになり、大規模なデータセンターだけでなく、AIを民主化しています。

デプロイメントクラスター

多くのノードオペレーターは、遅延を最小限に抑えるためにクラウドプラットフォーム(AWSなど)や自己ホストされたクラスターを選択しています。うまく協調したクラスターは、時間の経過に敏感なシナリオで特に価値があり、わずかな遅延でもユーザーエクスペリエンスに大きな影響を与える場合があります。

4. ノードオペレーターコミュニティ

参加者の増加

数千人の参加者が推論ノードの実行に興味を示し、多様で分散したネットワークを作成しています。この拡張により、より多くの計算リソースがオンラインになり、スループットと耐久性がさらに向上します。

Wikipedia-Likeモデルの貢献

Wikipediaの編集者が記事で協力するのと同様に、各ノードオペレーターは専門モデルを強化または微調整し、改良された推論技術を共有することができます。この集合的なメンテナンスと改良は、継続的なイノベーションを促進し、ネットワーク全体の知性を向上させます。

ラグランジュ

ラグランジュは、ゼロ知識(ZK)技術を使用してAIに検証可能性をもたらす最先端にいます。彼らのモットー「AIの未来はZKであり、人類の未来はラグランジュである」という信念は、AIが超知能に向かって進化するにつれて、これらのモデルがどのように機能するかについての透明性と信頼を確保しなければならないという信念を強調しています。

DeepProve: 高性能zkML

  • Proof of Correct Model: DeepProveは、与えられた推論に正しいAIモデルが使用されたことを暗号化によって確認し、改ざんや誤った表現の余地を残しません。
  • 正しい出力の証明:それはまた、出力がモデルが本当に生成するものと一致していることを保証し、悪意のある行為者が偽の結果を注入するのを防ぎます。
  • パフォーマンスの向上:多くの既存のzkMLソリューションよりも158倍の高速な証明生成と671倍の高速な検証を誇り、大規模な展開が可能になりました。

「ブラックボックス」AIの相互作用を取り除くことで、LagrangeはユーザーがAIを盲目的に信頼する必要がないようにします。信頼の最小化が重要な分散環境では、モデルの完全性と出力の正確性に関する暗号的な確実性が不可欠となります。

また、Inference Labsは、Lagrangeのアプリケーションに焦点を当てた部門として機能し、研究と実用的な展開を橋渡ししています。 Lagrangeが主に核心的な暗号化と回路設計に集中する一方、Inference Labsはこれらのブレークスルーが製品化されることを確実にします。

現実世界の統合

既存の機械学習パイプラインにzkMLを組み込み、DeFi、ゲーム、ヘルスケア、およびサプライチェーンの起源などのセクターに焦点を当てています。

業界のリーダーと提携して、大規模なパラメーターカウント、厳格なレイテンシ要件などの現実の制約下で新しいラグランジュ機能をストレステストします。

EZKL

EZKLは、ゼロ知識証明(ZKPs)を使用して検証可能なAIと分析を作成するためのオープンソースシステムです。これにより、開発者は機密データや独自のモデルの詳細を明らかにせずにAIモデルが正しく実行されたことを証明できます。AppleのFace IDなどのシステムから着想を得たEZKLは、専用ハードウェア(例:TEE)に頼らずに、どんなデバイス上のどんなモデルにも妥協のないモデルセキュリティを拡張します。

ゼロ知識証明インフラストラクチャ

EZKLは、モデルのコンパイルから証明の生成および検証まで、ZKPライフサイクル全体を自動化します。ユーザーはONNX形式でAIモデルを提供し、EZKLはHalo2証明システムの最適化バージョンを使用してZKフレンドリーサーキットにコンパイルします。その後、システムは正しいモデルの実行の暗号証明を生成し、どのデバイスでも検証できます。

この暗号化プロセスにより、財務決定、生体認証、リアルタイム推論検証など、高度なAIアプリケーションにおける分散信頼が可能になります。

共同SNARKs(Cosnarks)

EZKLは最近、協力的SNARKs(cosnarks)を導入しました。これにより、モデル所有者とデータ所有者のような2つの当事者が、お互いに機密資産を明かさずにZK証明を共同生成することが可能です。委任されたMPC証明システムとは異なり、cosnarksは関係する当事者だけに計算を限定することで追加の信頼前提を排除します。

この進歩により、プライベート信用スコアリング、機密取引戦略、およびゼロ知識アイデンティティ検証などのユースケースが可能になります。この実装は、Renegadeの2PC最適化されたMPCライブラリを活用し、EZKLのクラウドオーケストレーションレイヤーで直接統合されています。

モデルサポートと柔軟性

EZKLは、CNN、RNN、GPTスタイルのトランスフォーマー、決定木、安定した拡散モデルなど、幅広いAI/MLアーキテクチャをサポートしています。ONNX標準に準拠したモデルは、ZK回路に変換することができます。

数学的回路にモデルロジックを抽象化することで、EZKLは金融、医療、アイデンティティなどのさまざまな産業におけるプライバシー保護推論を実現します。木構造ベースの論理、注意機構、大規模行列操作がすべてHalo2ベースのフレームワーク内でサポートされています。

開発者体験

EZKLはアクセシビリティと複雑さの抽象化を重視しています。開発者は事前の暗号知識、回路設計経験、または高度なDevOpsスキルが必要ありません。システムはCLI、Python、JavaScript、Rustでのバインディングを提供し、既存のMLパイプラインにZKワークフローを簡単に組み込むことができます。

自動制約生成、簡略化された証明コマンド、およびオーケストレーションツールとのシームレスな統合により、開発者はアプリケーションロジックにのみ集中できます。

ORAプロトコル

ORAは、AIとブロックチェーンを結びつけ、検証可能な機械学習によって駆動される完全に信頼できる分散アプリケーションを開発することを可能にする、チェーンに依存しないオラクルプロトコルです。ORAは、AI推論、コンテンツ生成、および複雑なコンピューティングを直接オンチェーンで実行し、オフチェーンAPIや集中型コンピューティングへの依存を排除します。そのコアイノベーションは、AI実行と暗号的証明の組み合わせにあり、組み込み検証可能性を持つプログラマブルAIパイプラインを作成します。

そのプロトコルを使用すると、AIの出力(言語モデルの応答、生成された画像、または事実をチェックした声明など)を監査可能性と正確性の保証を備えたスマートコントラクトに埋め込むことができるため、どの開発者もアプリケーションを構築できます。

Onchain AI Oracle (OAO)

Onchain AI Oracle(OAO)はORAの主力製品です。これにより、スマートコントラクトはAIの推論結果をリクエストし、受信し、アクションを起こすことができますが、これはオフチェーンで実行されますが、検証および決済はオンチェーンで行われます。開発者はORAのopMLネットワークを介してAI推論ジョブを呼び出すことができます。その結果は、ユーザーの契約内のコールバック関数を介して返され、オンチェーンアプリケーションをAIネイティブかつ完全自律化させることが可能です。

OAOは、LLaMA3、Stable Diffusion、OpenLM Chat/Scoreなどの複数の大規模モデルをサポートし、検証可能なインフラストラクチャを介して実行します。 開発者は、OAOを任意のEVM互換チェーンに統合でき、PromptやSimplePromptなどの事前構築されたスマートコントラクトを使用することで、ガスの最適化を考慮した迅速なプロトタイピングが可能です。

opMLと検証可能なワークフロー

ORAの楽観的な機械学習(opML)システムは、その検証可能性レイヤーを支えています。推論ジョブが開始されると、結果はチャレンジ期間付きでオンチェーンに投稿されます。この間、opMLバリデータは結果を検証し、誤っている場合は詐欺証拠を提出できます。正しい結果が挑戦されたものと置き換えられます。これにより、スマートコントラクトに埋め込まれたAI出力が検証可能で、検閲に対抗でき、経済的に安全になります。

この楽観的なアプローチは、パフォーマンスと分散化をバランスさせています。zkMLとは異なり、重い最初の計算が必要な場合があるopMLでは、特に検証者ネットワークが拡大するにつれて、不正行為が成功することは経済的に非合理となります。

Developer Integration

開発者は、よく文書化されたモジュラーインターフェースを介してOAOとやり取りします。AIをスマートコントラクトに統合するには、開発者はAIOracleCallbackReceiverを継承し、結果を受信するためにaiOracleCallback()関数を実装します。その後、モデルID、入力データ、コールバックアドレスを使用して推論を開始するためにオラクルを呼び出すことができます。

現在、Arbitrumには4つのモデルが展開されており、統合はORAのPromptテンプレートを使用するだけで簡単です。このインフラストラクチャは、Lilithによるコンピュートオーケストレーションを通じて、より高度なユースケースもサポートし、より高速な推論と高スループットのワークロードを可能にしています。

初期モデルオファリング(IMO)

ORAは、AIモデルの所有権、収益、およびガバナンスを分散化するために初期モデルオファリング(IMO)フレームワークを作成しました。 IMOは、二重トークン構造を通じてAIモデルをトークン化します。

  • ERC-7007: Anchors verifiable AI-generated outputs (e.g., images, predictions) directly onchain.
  • ERC-7641: モデルの使用から収益をトークン保有者に分配し、インセンティブを整合させた、コミュニティによって統治されたAIシステムを作成します。

トークンベースのガバナンスと収益化を可能にすることで、IMOsはオープンソースの開発を資金提供し、AIインフラストラクチャが検閲に耐え、世界中でアクセス可能であり、共同所有されることを保証します。

結論

AIの分野が成長を続けるにつれて、検証可能なAIの出力の必要性がますます重要になっています。上記から明らかなように、分散型AIソリューションにおける信頼性を確保するための様々なアプローチがあり、その中には信頼できる実行環境(TEE)、サンプリングの証明(PoSP)、ゼロ知識機械学習(ZKML)、楽観的機械学習(OPML)が含まれています。

アプローチは、コスト、所要時間、およびセキュリティ保証レベルなど、さまざまな側面で異なります。特定のユースケースに応じて、上記のすべての解決策がいずれかの方法で使用される可能性があります。

免責事項:

  1. この記事は[から転載されています双曲線- e/acc元のタイトル「AIと検証可能性」を転送します。すべての著作権は元の著者に帰属します[双曲線- e/acc]. If there are objections to this reprint, please contact the Gate Learnチームが迅速に対応します。
  2. 責任の免責: この記事で表現されている意見は、著者個人のものであり、投資アドバイスを構成するものではありません。
  3. Gate Learnチームは記事の翻訳を他言語に行います。翻訳された記事のコピー、配布、または盗用は、明記されていない限り禁止されています。

2025年の新興AI検証ソリューション6つ

中級4/17/2025, 2:03:08 AM
この記事では、2025年のAI検証分野における最先端ソリューションを探求し、EigenLayer、Hyperbolic、Mira、Atoma、Fortytwo、およびLagrangeの6つの主要プロジェクトを詳細に分析します。これらのイニシアチブは、Proof-of-Sampling(PoSP)、Trusted Execution Environments(TEEs)、Zero-Knowledge Proofs(ZKPs)を含む多様な技術的アプローチを採用して、AI出力の信頼性の課題に対処しています。各ソリューションは独自の利点を提供し、特定のユースケースに適しており、分散型AIインフラの開発を共同で推進しています。

元のタイトル 'AIと検証可能性' を転送する

AIシステムがブロックチェーンエコシステムとますます統合するにつれて、AIの出力の検証可能性を確保することは、信頼、透明性、責任の促進のための要石になります。これは特に分散型ファイナンス(DeFi)や人物証明アプリケーションにとって重要であり、正確性と信頼性が直接的に金融の結果、ガバナンスの決定、およびユーザーの身元に影響を与えることができます。

分散システムにおける検証可能なAIのケース

AIオブザーバビリティ

意思決定プロセスが透明で理解しやすいことを保証します。ステークホルダーは、結論がどのように導かれるかを知ることができます。これは、決定がオンチェーン取引や大規模なガバナンスに影響を与える場合に不可欠です。

ソーストレーサビリティ

AI予測を生成するために使用されるデータ、パラメータ、およびモデルアーキテクチャを追跡します。起源を確立することで、ユーザーはトレーニングデータの出所や使用されたモデルを知ることができ、信頼を高め、誤情報の可能性を減らします。

出力検証

最終的なAI出力が正確かつ変更されていないことを確認します。分散コンテキストでは、これにはしばしば証明メカニズム(例:ゼロ知識証明、サンプリングコンセンサス)が関わり、計算や推論がオフチェーンで改ざんされていないことを保証します。

オンチェーンAI検証の課題

ブロックチェーンは不変の台帳と分散信頼を提供することに優れていますが、オンチェーンAI計算は非常に高額になることがあります。たとえば、1000×1000の整数の行列乗算の場合、数十億のガスが消費される可能性があります—それは現在のイーサリアムのブロックガスリミットを超えています(Zheng et al., 2021)。そのため、ほとんどのAIプロジェクトは、オンチェーンの検証を伴うオフチェーン計算に依存しています。

しかしながら、オフチェーンアプローチは新たな課題をもたらします:

潜在的な詐欺:堅牢な検証がないと、悪意のある行為者が間違ったデータや操作されたデータを提出する可能性があります。

中央集権化の弱点:オフチェーンのオラクルやプライベートサーバーに依存することは、分散型の理念を損ない、検閲や単一障害点を引き起こす可能性があります。

したがって、新興ソリューションは、高性能を維持しながら、暗号化またはサンプリングベースの検証を取り入れ、効率と分散をバランスさせることを目指しています。

EigenLayer

EigenLayerは、EthereumのバリデータがETHを「再ステーク」して、追加の分散型サービスであるActively Validated Services(AVS)を保護することを可能にする再ステーキングプロトコルです。専門的なタスク(例:AI検証、クロスチェーン操作)ごとに新しいバリデータセットが必要とされる代わりに、EigenLayerはEthereumの堅牢かつ分散型のバリデータネットワークを再利用しています。

EigenLayerは、新しいアクティブに検証されたサービス(AVS)がEthereumの既存のバリデータセットにアクセスできることで、セキュリティを強化しています。このバリデータセットはすでに大規模で資本力があり、地理的に分散しており、新しいネットワークをゼロからブートストラップする必要なく、頑健な暗号経済保証を提供しています。

restakingを有効にすることで、EigenLayerは運用オーバーヘッドを大幅に削減します。プロジェクトはもはや独自のバリデーターエコシステムを作成および維持する必要がなく、これによりインフラコストが低下し、新しい分散型サービスをチェーン上で簡単に開始する障壁も低くなります。

さらに、システムは高い柔軟性を提供しています。AVSは独自のコンセンサスと検証ロジックをカスタマイズできますが、それでもEthereumのベースレイヤーセキュリティを継承しており、EigenLayerはモジュラーで安全かつスケーラブルな分散型アプリケーションの理想的な基盤となっています。

ハイパーボリックのサンプリングの証明(PoSP)

Hyperbolic Labsは、AI検証のための伝統的なzkMLや楽観的な詐欺証拠の効率的でスケーラブルな代替手段であるProof of Sampling(PoSP)を導入しています。この革新的なサンプリングベースの検証プロトコルにより、ユーザーは、分散型GPUネットワーク上で訓練および実行されるモデルの結果を信頼できます。このPoSPとして知られるプロトコルは、AIにおける検証の新たなゴールドスタンダードです。

UCバークレーとコロンビア大学の研究者と協力してハイパーボリックチームによって開発されたPoSPは、ゲーム理論を使用して分散システムをセキュリティできます。それは戦略的な結果のサンプルを検証し、不正なノードに対する仲裁プロセスを実装し、ネットワーク全体で100%の誠実な行動を促進します。

Proof of Spontaneous Proofs(PoSP)にはいくつかの主な利点があります。それは、1%未満の計算オーバーヘッドを追加することで効率的な検証を可能にし、ノードがほぼネイティブの動作速度を維持できるようにします。その堅牢なセキュリティにより、参加者が正直であることが確保され、ランダムなチェックによって詐欺がリスクを冒す価値がなくなります。ゲーム理論的なインセンティブを通じて、PoSPは常に合理的な選択肢である正直な行動が支配戦略ナッシュ均衡を生み出します。最後に、PoSPはAIサービス向けに高度にスケーラブルであり、大規模な分散型AIワークロードをサポートする能力を持ちながら、高性能なコンピューティングおよび推論プロセスが検証可能かつ信頼できる状態を維持します。

ランダムな監査:EigenLayerを介して、一連のバリデータ(EigenLayerを介して)が定期的にサンプリングし、AIの計算をチェックします。この連続した検証により、システム的な不正行為が防止されます。

Nash Equilibrium Incentives: 悪意のある行動は、検証者にとって経済的に非合理であり、不正行為や一貫性のない出力は、削減可能なペナルティにつながります。

High Throughput: PoSPの低い性能オーバーヘッドは、迅速で頻繁なAI推論が必要なユースケースに適しています。

他の分散型AIソリューションとは異なり、Hyperbolicの分散型ネットワーク上で推論を実行するとき、信頼性のある結果を受け取っていることを確信できます。

EigenLayerにPoSPを統合することで、分散型AIサービスは、分散化やコスト効率を犠牲にすることなく、増加する推論リクエストを処理できる安全で信頼のあるフレームワークを実現できます。

ランダム検証: バリデータはランダムに選択され、出力を検証して、偏りのない結果を確認します。

Scalable AVSサポート:PoSPは計算要求を削減し、EigenLayerが大規模サービスを効率的にセキュリティできるようにしています。

詐欺防止:厳しいペナルティによって不正行為が不適切になり、正直な行動が最適な戦略のままである。

EigenLayerプロトコルとProof of Samplingプロトコルを組み合わせることで、分散型サービスのセキュリティを根本的に変えます。今、コストのわずかな部分でスケーラブルで信頼性の高い詐欺耐性のインフラを提供しています。- ハイパーボリックのCEO、Jasper Zhang


PoSPに関する完全な論文をこちらで読んでください

ミラ

Mira Networkは、AIにおける基本的な課題である大規模言語モデル(LLM)が誤った情報を生成する傾向に対処することを目指しています。人間の監視なしに幻覚を減らし、出力の正確さを最大化するために設計されたMiraは、独立したノードの分散ネットワークを活用して、AIの出力を信頼性のある方法で並行して検証します。

Miraのアーキテクチャには3つのステップがあります

二値化

より単純な「クレーム」に出力を分割する過程。

分散検証

上記の主張は、特化したモデルを実行して主張を検証する検証ノードネットワークによって検証されます。検証は多肢選択形式で行われます。検証のための主張はランダムに検証者間でシャーディングされるため、共謀を困難にします。

検証の証明

Proof-of-Work(PoW)とProof-of-Stake(PoS)を組み合わせたハイブリッドコンセンサスメカニズムが利用されています。各検証者は、検証に参加するためにステークをする必要があります。このアプローチにより、検証者が実際に推論を行っていることが保証され、単なる証明を行っているだけではありません。検証者の出力がコンセンサスから常に逸脱していることが判明した場合、検証者のステークは削減されます。

ネットワークによるアウトプットの合意が形成されると、暗号証明書が生成され、ブロックチェーンに書き込まれ、検証済みの事実の不変の記録が作成されます。


ソース:Mira Network Whitepaper

プライバシーはMiraの設計の重要な側面です。クレームがランダムにシャーディングされているため、単一のノードオペレーターが元の出力を再構築することはできません。さらに、独立した検証者からの検証応答は、コンセンサスが形成される前に非公開に保持され、情報漏洩を防いでいます。

Miraは、コード、構造化データ、マルチメディアコンテンツを含む、ますます複雑なコンテンツを検証しようとしています。将来、Miraは無効なコンテンツを検知した際にも無効なコンテンツを再構築し、AIの出力において精度とスピードの両方を実現します。最終的には、Mira Networkは経済的に保護された事実を蓄積し、事実検証のためのデータベースを作成することができるようになります。

ネットワークの利用が拡大するにつれて、より高い手数料の発生、より良い検証報酬の獲得、より多くのノードオペレーターの引きつけ、回答の検証における向上した精度、コスト、およびレイテンシーがもたらされます

アトマ

Atomaは、Suiメインネット上でライブ配信されている分散型でプライベートかつ検証可能なAI実行ネットワークです。コアアーキテクチャは、(a)計算レイヤー、(b)検証レイヤー、および(c)プライバシーレイヤーから構成されています。

コンピュートレイヤー

推論リクエストを処理するグローバルな実行ノードネットワーク。さまざまなデータセンターと個々のデジタルデバイスなどのエッジデバイスと連携して大量のノードが利用可能です。

Atomaを使用すると、モデルの重みはノード上でローカルに利用できるため、リクエストが受信されると推論速度が向上します。さらに、受信したリクエストは、タスクに対応する性能とコストに一致する最適なノードにルーティングされます。

Atomaは、FlashAttentionとPaged Attentionを含むいくつかの機能を通じて推論の効率を最適化することに重点を置いており、両方が計算オーバーヘッドを削減するのに貢献しています。

検証レイヤー

計算の整合性はサンプリングコンセンサスによって検証されます。これは、ノードが無作為に選択されて推論を実行し、出力の暗号ハッシュを生成するプロセスです。選択されたノードによって生成されたすべてのハッシュが一致する場合、推論結果が検証されます。生成されたハッシュの中に不一致がある場合、ネットワークは不誠実なノードを特定し、そのステークを削減することでペナルティを科します。

悪意のある攻撃者がシステムを操作するためにネットワーク全体のGPUパワーの半分以上を制御できる可能性は非常に低く、ノードネットワークがスケールするにつれてさらに困難になります。サンプリングに選択されるノードの数は柔軟であり、より高いステークのタスクでは、より大規模なノードセットが選択されることがあります。

プライバシーレイヤー

Atomaは、ユーザーデータを安全かつプライベートに保つことを重視しており、Trusted Execution Environment(TEE)で計算を実行しています。ユーザーによって入力されたデータは暗号化され、TEE内でのみ復号化されます。これにより、ブロックチェーン上の他の当事者がユーザーのデータを閲覧することを防いでいます。推論が実行された後、出力はユーザーに返される前に暗号化されます。

上記は安全なソリューションであるにもかかわらず、より高い計算オーバーヘッドに伴うトレードオフがあり、これによりユーザーの料金が高くなる可能性があることに注意する価値があります。

Aizel Network

Atoma Networkと同様に、Aizel NetworkはTEEベースのアプローチを採用しています。 ここでの違いは、AizelがワークフローにMulti-Party Computation(MPC)を統合していることで、推論タスクが異なるTEEにルーティングされるようになっています。これは、ネットワークを非中央集権化し、1つのTEEがハッキングされたりダウンしていたりしても、推論がまだ可能であることを確認することを目的としています。

Fortytwo

Fortytwo champions a “swarm inference” model built around Small, Specialized Models (SLMs). Instead of relying on one massive monolithic AI, the network orchestrates multiple contributor-run models, each fine-tuned for specific tasks or domains. These models work in parallel—verifying, refining, and cross-checking each other’s outputs—to deliver more accurate and trustworthy inferences.

この分散構造は、訓練のボトルネック、高コストなハードウェア要件、単一の障害点など、単一の大規模モデルがしばしば直面する問題に取り組んでいます。Fortytwoは、知能を多数の小さなモデルと貢献者に分散することで、拡張性と障害耐性の両方を確保しています。

1. 小規模専門モデル(SLMs)

意図優先の初期化

任務が開始される前に、寄稿者は目標、予算、制約を指定します。このアプローチにより、テキストの要約、コードの分析、その他の特殊推論など、どんなSLMでも全体的なミッションに合わせることができます。

貢献者によって定義された専門分野

個々のノードオペレーターは、独自に微調整されたモデルをネットワークに持ち込みます。彼らは重み、バイアス、および独自のデータを完全に制御し、各モデル所有者のプライバシーを確保します。これらの特殊なモデルは、感情分析、法的テキストの解析、または特定のドメインにおけるコード生成などの分野に焦点を当てることができます。

Weights & Biasesのプライバシー

Fortytwoの重要な側面は、貢献者がモデルの内部情報を共有する必要がないことです。推論結果のみがネットワークと共有されます。この設計により、各モデル所有者の知的財産が保護され、機密データの公開に伴うリスクが軽減されます。

2. スワーム推論&ピア評価

マルチSLMコラボレーション

タスクは、7〜8(またはそれ以上)の専門化されたSLMに分割されており、それぞれが独自のドメインの視点を提供しています。大きなタスクをより小さなサブ問題に分割することで、ネットワークは各モデルの強みをより効果的に活用しています。

Flat Mixture-of-Experts (MoE)

複数の層にサブエキスパートを積み重ねるのではなく、Fortytwoは各モデルがデータを独立して処理する「フラット」MoEアプローチを採用しています。この設計は、階層的なゲーティングからの複雑さを避け、専門家がそれぞれのサブタスクに集中できるため、特に効率的である可能性があります。

集合誤検出

ピア評価は推論の正確性を維持する上で重要な役割を果たしています。モデルの意見が分かれると、ネットワークはその相違をより深く分析するためにフラグを立てます。この相互検証プロセスは、エラーを早期に発見し、高品質な出力を確保する上で重要です。

3. 低遅延&分散コンピュート

コンシューマーグレードのハードウェア

Fortytwoは、Apple SiliconやRTX GPUなどのデバイス向けに最適化されており、コストの障壁を下げ、潜在的なノードオペレーターの基盤を広げています。このアプローチにより、より多くの個人が参加できるようになり、大規模なデータセンターだけでなく、AIを民主化しています。

デプロイメントクラスター

多くのノードオペレーターは、遅延を最小限に抑えるためにクラウドプラットフォーム(AWSなど)や自己ホストされたクラスターを選択しています。うまく協調したクラスターは、時間の経過に敏感なシナリオで特に価値があり、わずかな遅延でもユーザーエクスペリエンスに大きな影響を与える場合があります。

4. ノードオペレーターコミュニティ

参加者の増加

数千人の参加者が推論ノードの実行に興味を示し、多様で分散したネットワークを作成しています。この拡張により、より多くの計算リソースがオンラインになり、スループットと耐久性がさらに向上します。

Wikipedia-Likeモデルの貢献

Wikipediaの編集者が記事で協力するのと同様に、各ノードオペレーターは専門モデルを強化または微調整し、改良された推論技術を共有することができます。この集合的なメンテナンスと改良は、継続的なイノベーションを促進し、ネットワーク全体の知性を向上させます。

ラグランジュ

ラグランジュは、ゼロ知識(ZK)技術を使用してAIに検証可能性をもたらす最先端にいます。彼らのモットー「AIの未来はZKであり、人類の未来はラグランジュである」という信念は、AIが超知能に向かって進化するにつれて、これらのモデルがどのように機能するかについての透明性と信頼を確保しなければならないという信念を強調しています。

DeepProve: 高性能zkML

  • Proof of Correct Model: DeepProveは、与えられた推論に正しいAIモデルが使用されたことを暗号化によって確認し、改ざんや誤った表現の余地を残しません。
  • 正しい出力の証明:それはまた、出力がモデルが本当に生成するものと一致していることを保証し、悪意のある行為者が偽の結果を注入するのを防ぎます。
  • パフォーマンスの向上:多くの既存のzkMLソリューションよりも158倍の高速な証明生成と671倍の高速な検証を誇り、大規模な展開が可能になりました。

「ブラックボックス」AIの相互作用を取り除くことで、LagrangeはユーザーがAIを盲目的に信頼する必要がないようにします。信頼の最小化が重要な分散環境では、モデルの完全性と出力の正確性に関する暗号的な確実性が不可欠となります。

また、Inference Labsは、Lagrangeのアプリケーションに焦点を当てた部門として機能し、研究と実用的な展開を橋渡ししています。 Lagrangeが主に核心的な暗号化と回路設計に集中する一方、Inference Labsはこれらのブレークスルーが製品化されることを確実にします。

現実世界の統合

既存の機械学習パイプラインにzkMLを組み込み、DeFi、ゲーム、ヘルスケア、およびサプライチェーンの起源などのセクターに焦点を当てています。

業界のリーダーと提携して、大規模なパラメーターカウント、厳格なレイテンシ要件などの現実の制約下で新しいラグランジュ機能をストレステストします。

EZKL

EZKLは、ゼロ知識証明(ZKPs)を使用して検証可能なAIと分析を作成するためのオープンソースシステムです。これにより、開発者は機密データや独自のモデルの詳細を明らかにせずにAIモデルが正しく実行されたことを証明できます。AppleのFace IDなどのシステムから着想を得たEZKLは、専用ハードウェア(例:TEE)に頼らずに、どんなデバイス上のどんなモデルにも妥協のないモデルセキュリティを拡張します。

ゼロ知識証明インフラストラクチャ

EZKLは、モデルのコンパイルから証明の生成および検証まで、ZKPライフサイクル全体を自動化します。ユーザーはONNX形式でAIモデルを提供し、EZKLはHalo2証明システムの最適化バージョンを使用してZKフレンドリーサーキットにコンパイルします。その後、システムは正しいモデルの実行の暗号証明を生成し、どのデバイスでも検証できます。

この暗号化プロセスにより、財務決定、生体認証、リアルタイム推論検証など、高度なAIアプリケーションにおける分散信頼が可能になります。

共同SNARKs(Cosnarks)

EZKLは最近、協力的SNARKs(cosnarks)を導入しました。これにより、モデル所有者とデータ所有者のような2つの当事者が、お互いに機密資産を明かさずにZK証明を共同生成することが可能です。委任されたMPC証明システムとは異なり、cosnarksは関係する当事者だけに計算を限定することで追加の信頼前提を排除します。

この進歩により、プライベート信用スコアリング、機密取引戦略、およびゼロ知識アイデンティティ検証などのユースケースが可能になります。この実装は、Renegadeの2PC最適化されたMPCライブラリを活用し、EZKLのクラウドオーケストレーションレイヤーで直接統合されています。

モデルサポートと柔軟性

EZKLは、CNN、RNN、GPTスタイルのトランスフォーマー、決定木、安定した拡散モデルなど、幅広いAI/MLアーキテクチャをサポートしています。ONNX標準に準拠したモデルは、ZK回路に変換することができます。

数学的回路にモデルロジックを抽象化することで、EZKLは金融、医療、アイデンティティなどのさまざまな産業におけるプライバシー保護推論を実現します。木構造ベースの論理、注意機構、大規模行列操作がすべてHalo2ベースのフレームワーク内でサポートされています。

開発者体験

EZKLはアクセシビリティと複雑さの抽象化を重視しています。開発者は事前の暗号知識、回路設計経験、または高度なDevOpsスキルが必要ありません。システムはCLI、Python、JavaScript、Rustでのバインディングを提供し、既存のMLパイプラインにZKワークフローを簡単に組み込むことができます。

自動制約生成、簡略化された証明コマンド、およびオーケストレーションツールとのシームレスな統合により、開発者はアプリケーションロジックにのみ集中できます。

ORAプロトコル

ORAは、AIとブロックチェーンを結びつけ、検証可能な機械学習によって駆動される完全に信頼できる分散アプリケーションを開発することを可能にする、チェーンに依存しないオラクルプロトコルです。ORAは、AI推論、コンテンツ生成、および複雑なコンピューティングを直接オンチェーンで実行し、オフチェーンAPIや集中型コンピューティングへの依存を排除します。そのコアイノベーションは、AI実行と暗号的証明の組み合わせにあり、組み込み検証可能性を持つプログラマブルAIパイプラインを作成します。

そのプロトコルを使用すると、AIの出力(言語モデルの応答、生成された画像、または事実をチェックした声明など)を監査可能性と正確性の保証を備えたスマートコントラクトに埋め込むことができるため、どの開発者もアプリケーションを構築できます。

Onchain AI Oracle (OAO)

Onchain AI Oracle(OAO)はORAの主力製品です。これにより、スマートコントラクトはAIの推論結果をリクエストし、受信し、アクションを起こすことができますが、これはオフチェーンで実行されますが、検証および決済はオンチェーンで行われます。開発者はORAのopMLネットワークを介してAI推論ジョブを呼び出すことができます。その結果は、ユーザーの契約内のコールバック関数を介して返され、オンチェーンアプリケーションをAIネイティブかつ完全自律化させることが可能です。

OAOは、LLaMA3、Stable Diffusion、OpenLM Chat/Scoreなどの複数の大規模モデルをサポートし、検証可能なインフラストラクチャを介して実行します。 開発者は、OAOを任意のEVM互換チェーンに統合でき、PromptやSimplePromptなどの事前構築されたスマートコントラクトを使用することで、ガスの最適化を考慮した迅速なプロトタイピングが可能です。

opMLと検証可能なワークフロー

ORAの楽観的な機械学習(opML)システムは、その検証可能性レイヤーを支えています。推論ジョブが開始されると、結果はチャレンジ期間付きでオンチェーンに投稿されます。この間、opMLバリデータは結果を検証し、誤っている場合は詐欺証拠を提出できます。正しい結果が挑戦されたものと置き換えられます。これにより、スマートコントラクトに埋め込まれたAI出力が検証可能で、検閲に対抗でき、経済的に安全になります。

この楽観的なアプローチは、パフォーマンスと分散化をバランスさせています。zkMLとは異なり、重い最初の計算が必要な場合があるopMLでは、特に検証者ネットワークが拡大するにつれて、不正行為が成功することは経済的に非合理となります。

Developer Integration

開発者は、よく文書化されたモジュラーインターフェースを介してOAOとやり取りします。AIをスマートコントラクトに統合するには、開発者はAIOracleCallbackReceiverを継承し、結果を受信するためにaiOracleCallback()関数を実装します。その後、モデルID、入力データ、コールバックアドレスを使用して推論を開始するためにオラクルを呼び出すことができます。

現在、Arbitrumには4つのモデルが展開されており、統合はORAのPromptテンプレートを使用するだけで簡単です。このインフラストラクチャは、Lilithによるコンピュートオーケストレーションを通じて、より高度なユースケースもサポートし、より高速な推論と高スループットのワークロードを可能にしています。

初期モデルオファリング(IMO)

ORAは、AIモデルの所有権、収益、およびガバナンスを分散化するために初期モデルオファリング(IMO)フレームワークを作成しました。 IMOは、二重トークン構造を通じてAIモデルをトークン化します。

  • ERC-7007: Anchors verifiable AI-generated outputs (e.g., images, predictions) directly onchain.
  • ERC-7641: モデルの使用から収益をトークン保有者に分配し、インセンティブを整合させた、コミュニティによって統治されたAIシステムを作成します。

トークンベースのガバナンスと収益化を可能にすることで、IMOsはオープンソースの開発を資金提供し、AIインフラストラクチャが検閲に耐え、世界中でアクセス可能であり、共同所有されることを保証します。

結論

AIの分野が成長を続けるにつれて、検証可能なAIの出力の必要性がますます重要になっています。上記から明らかなように、分散型AIソリューションにおける信頼性を確保するための様々なアプローチがあり、その中には信頼できる実行環境(TEE)、サンプリングの証明(PoSP)、ゼロ知識機械学習(ZKML)、楽観的機械学習(OPML)が含まれています。

アプローチは、コスト、所要時間、およびセキュリティ保証レベルなど、さまざまな側面で異なります。特定のユースケースに応じて、上記のすべての解決策がいずれかの方法で使用される可能性があります。

免責事項:

  1. この記事は[から転載されています双曲線- e/acc元のタイトル「AIと検証可能性」を転送します。すべての著作権は元の著者に帰属します[双曲線- e/acc]. If there are objections to this reprint, please contact the Gate Learnチームが迅速に対応します。
  2. 責任の免責: この記事で表現されている意見は、著者個人のものであり、投資アドバイスを構成するものではありません。
  3. Gate Learnチームは記事の翻訳を他言語に行います。翻訳された記事のコピー、配布、または盗用は、明記されていない限り禁止されています。
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!