تحتاج وكلاء الذكاء الاصطناعي إلى الشفافية—كيف تعرف أنهم يفعلون ما يدعون؟ التحقق على السلسلة هو الحل.
بروتوكول وردن يبتكر بلوكتشين أصلي للذكاء الاصطناعي حيث ينشر الوكلاء أفعالهم مباشرة، ويمكن للتطبيقات التحقق من تلك النتائج باستخدام spex (إثبات إحصائي للتنفيذ). هذا يجسر فجوة الثقة بين اتخاذ قرارات الذكاء الاصطناعي والتحقق من خلال البلوكتشين.
الشبكة الرئيسية تعمل حالياً في وضع الوصول المحدود، وتطرح تدريجياً للمشاركين الأوائل. إنها طريقة مقنعة لجعل سلوك الذكاء الاصطناعي قابل للمراجعة والتحقق على مستوى البروتوكول.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
5
إعادة النشر
مشاركة
تعليق
0/400
gas_fee_therapist
· 2025-12-30 17:14
ngl هذه المجموعة من التحقق على السلسلة تبدو جيدة ولكن هل يمكنها حقًا حل مشكلة الصندوق الأسود في الذكاء الاصطناعي... أنا متشكك قليلاً
spex يبدو غامضًا، هل سيكون في الواقع أيضًا صندوق أسود داخل صندوق أسود عند التشغيل
limited access عاد مرة أخرى، هل يتعين علينا الانتظار في الطابور مرة أخرى
شاهد النسخة الأصليةرد0
ContractFreelancer
· 2025-12-27 18:51
آلية التحقق هذه من spex تبدو جيدة، لكنها هل يمكنها حقًا منع الأذى الذي تسببه الذكاء الاصطناعي؟ أم أنها مجرد خطة تبدو رائعة جدًا
شاهد النسخة الأصليةرد0
HodlTheDoor
· 2025-12-27 18:48
نعم، هذا هو ما كنت أريد رؤيته دائمًا، ويجب أن يتم تنظيم عمليات الصندوق الأسود للذكاء الاصطناعي حقًا
شاهد النسخة الأصليةرد0
fomo_fighter
· 2025-12-27 18:34
يبدو الأمر مثاليًا، لكن هل هذا spex حقًا موثوق به... دائمًا أشعر أنه مجرد ترويج للمفهوم
تحتاج وكلاء الذكاء الاصطناعي إلى الشفافية—كيف تعرف أنهم يفعلون ما يدعون؟ التحقق على السلسلة هو الحل.
بروتوكول وردن يبتكر بلوكتشين أصلي للذكاء الاصطناعي حيث ينشر الوكلاء أفعالهم مباشرة، ويمكن للتطبيقات التحقق من تلك النتائج باستخدام spex (إثبات إحصائي للتنفيذ). هذا يجسر فجوة الثقة بين اتخاذ قرارات الذكاء الاصطناعي والتحقق من خلال البلوكتشين.
الشبكة الرئيسية تعمل حالياً في وضع الوصول المحدود، وتطرح تدريجياً للمشاركين الأوائل. إنها طريقة مقنعة لجعل سلوك الذكاء الاصطناعي قابل للمراجعة والتحقق على مستوى البروتوكول.