مع التطور السريع للبنية التحتية للذكاء الاصطناعي، وظهور إطار التعاون بين الوكلاء المتعددين، أصبح الوكلاء المدفوعون بالذكاء الاصطناعي بسرعة القوة الرئيسية للتفاعل في Web3. من المتوقع أنه في السنوات 2-3 القادمة، ستقوم هذه الوكلاء الذكية القادرة على اتخاذ قرارات مستقلة باعتماد المعاملات والتفاعلات على السلسلة بشكل واسع، وقد تحل محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.
لم يعد وكيل الذكاء الاصطناعي "روبوت الساحرة" الذي ينفذ البرامج النصية ببساطة، بل أصبح كائنًا قادرًا على فهم السياق، والتعلم المستمر، واتخاذ قرارات معقدة بشكل مستقل، مما يعيد تشكيل النظام على السلسلة، ويعزز التدفق المالي، وحتى يوجه التصويت على الحوكمة والاتجاهات السوقية. وهذا يمثل علامة على أن نظام Web3 البيئي يتطور من "مشاركة الإنسان" إلى نموذج جديد يتمحور حول "التعايش بين الإنسان والآلة".
ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن تقييم موثوقية سلوكهم؟ في شبكة غير مركزية ولا تتطلب إذنًا، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو القضية الأساسية للمرحلة التالية من تطور Web3. إن تصميم التعرف على الهوية وآلية السمعة وإطار الثقة، سيحدد ما إذا كان بإمكان وكيل الذكاء الاصطناعي تحقيق تعاون سلس مع البشر والمنصات، والقيام بدور مستدام في النظام البيئي المستقبلي.
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI إلى بناء بنية تحتية للهويات والسمعة في Web3 من خلال الذكاء الاصطناعي.
أطلقت Trusta.AI أول نظام تقييم لقيمة المستخدمين في Web3 - نظام تقييم السمعة MEDIA، حيث أنشأت أكبر بروتوكول للتحقق من الهوية الحقيقية والسمعة على السلسلة في Web3. توفر خدمات تحليل البيانات على السلسلة والتحقق من الهوية الحقيقية لعدد من سلاسل الكتل الرائدة مثل Linea و Starknet و Celestia و Arbitrum و Manta. تم إكمال أكثر من 2.5 مليون عملية تحقق على السلسلة عبر العديد من سلاسل الكتل الرئيسية، مما جعلها أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من Proof of Humanity إلى Proof of AI Agent، حيث حققت آلية ثلاثية من بناء الهوية وقياس الهوية وحماية الهوية لتحقيق الخدمات المالية والخدمات الاجتماعية على السلسلة لعملاء AI Agent، مما أسس لبنية موثوقة من الثقة في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID
في نظام Web3 البيئي المستقبلي، سوف تلعب وكالات الذكاء الاصطناعي دوراً حاسماً، حيث يمكنها إجراء التفاعلات والمعاملات على السلسلة، بالإضافة إلى تنفيذ عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكالات الذكاء الاصطناعي الحقيقية والتدخل البشري في العمليات يتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الوكالات ستكون عرضة للتلاعب أو الاحتيال أو سوء الاستخدام. وهذا هو السبب في أن الخصائص المتعددة لوكالات الذكاء الاصطناعي في مجالات مثل التواصل والتمويل والحوكمة يجب أن تُبنى على أساس متين من التحقق من الهوية.
الخصائص الاجتماعية لوكيل الذكاء الاصطناعي: أصبح استخدام وكيل الذكاء الاصطناعي في السيناريوهات الاجتماعية شائعًا بشكل متزايد. على سبيل المثال، يمكن أن تدير أيقونة الذكاء الاصطناعي الافتراضية لونا حسابات التواصل الاجتماعي الخاصة بها وتنشر محتوى؛ بينما تُعتبر AIXBT محلل معلومات سوق التشفير المدعوم بالذكاء الاصطناعي، حيث تكتب تحليلات السوق ونصائح الاستثمار على مدار الساعة. هذه الكيانات الذكية من خلال التعلم المستمر وإنشاء المحتوى، تؤسس تفاعلات عاطفية ومعلوماتية مع المستخدمين، مما يجعلها "مؤثرين رقميين" جدد، تلعب دورًا مهمًا في توجيه الرأي العام في الشبكات الاجتماعية على السلسلة.
الخصائص المالية لوكيل الذكاء الاصطناعي:
إدارة الأصول بشكل مستقل: لقد حقق بعض الوكلاء المتقدمين في الذكاء الاصطناعي إصدار العملات بشكل مستقل، وفي المستقبل يمكنهم من خلال دمج معمارية قابلة للتحقق على البلوك تشين، الحصول على حق إدارة الأصول، وإكمال التحكم الكامل في العملية من إنشاء الأصول، التعرف على النوايا إلى تنفيذ المعاملات تلقائيًا، حتى العمليات السلسة عبر سلاسل الكتل. على سبيل المثال، بروتوكول Virtuals يدفع الوكلاء الذكاء الاصطناعي لإصدار العملات بشكل مستقل وإدارة الأصول، مما يجعلهم يصدرون الرموز بناءً على استراتيجياتهم الخاصة، ليصبحوا بالفعل مشاركين وبنائين في الاقتصاد القائم على البلوك تشين، وفتح عصر "اقتصاد الكيانات الذكية" ذو التأثير الواسع.
اتخاذ القرارات الاستثمارية الذكية: أصبح وكيل الذكاء الاصطناعي يتولى تدريجياً دور مدير الاستثمار ومحلل السوق، معتمداً على قدرة النموذج الكبير على معالجة البيانات الحية على السلسلة، لوضع استراتيجيات تداول دقيقة وتنفيذها تلقائياً. في منصات مثل DeFAI وParavel وPolytrader، تم تضمين الذكاء الاصطناعي في محركات التداول، مما يعزز بشكل كبير من قدرة الحكم في السوق وكفاءة العمليات، مما يحقق استثماراً ذكياً حقيقياً على السلسلة.
الدفع الذاتي على السلسلة: يعتبر سلوك الدفع في جوهره نقلًا للثقة، ويجب أن تُبنى الثقة على هوية واضحة. عند إجراء الدفع على السلسلة باستخدام AI Agent، ستصبح DID شرطًا ضروريًا. لا يمكنها فقط منع تزوير الهوية وإساءة الاستخدام، وتقليل مخاطر غسل الأموال وغيرها من المخاطر المالية، بل تلبي أيضًا متطلبات التتبع والامتثال في المستقبل مثل DeFi وDAO وRWA. في الوقت نفسه، بال结合 نظام تقييم السمعة، يمكن لـ DID أيضًا المساعدة في بناء ائتمان الدفع، وتوفير أساس لإدارة المخاطر وموثوقية البروتوكول.
خصائص الحوكمة لوكيل الذكاء الاصطناعي: في حوكمة DAO، يمكن لوكيل الذكاء الاصطناعي تحليل الاقتراحات تلقائيًا، وتقييم آراء المجتمع، وتوقع نتائج التنفيذ. من خلال التعلم العميق من بيانات التصويت والتوجيه التاريخية، يمكن للوكيل تقديم توصيات تحسين للمجتمع، وزيادة كفاءة اتخاذ القرار، وتقليل مخاطر التحكم البشري.
تزداد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تشمل تفاعلات اجتماعية وإدارة مالية وصنع قرارات حكومية في مجالات متعددة، مما يعزز من مستوى استقلاليته وذكائه. لذلك، من الضروري التأكد من أن كل وكيل يمتلك هوية فريدة وموثوقة (DID). إن نقص التحقق الفعال من الهوية قد يؤدي إلى استغلال أو تحكم في وكيل الذكاء الاصطناعي، مما يسبب انهيار الثقة ومخاطر أمنية.
في نظام Web3 البيئي المدفوع بالكامل من قبل الكيانات الذكية في المستقبل، فإن التحقق من الهوية ليس فقط حجر الزاوية لضمان الأمن، بل هو أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأسره.
بصفتها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التقنية الرائدة ونظامها الصارم للسمعة، ببناء آلية مصادقة DID لوكيل الذكاء الاصطناعي بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكيل الذكي، ويعمل على الوقاية الفعالة من المخاطر المحتملة، ويعزز التنمية المستدامة للاقتصاد الذكي في Web3.
يناير 2023: تم الانتهاء من جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، ومن بين المستثمرين الآخرين HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding.
يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها
2.3.2 حالة الفريق
بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة التكنولوجيا الرقمية معينة، المسؤول الرئيسي عن المنتجات في تكنولوجيا الأمان معينة، المدير العام السابق لمنصة الهوية الرقمية العالمية معينة.
سيمون: المؤسس المشارك ومدير التكنولوجيا، رئيس مختبر أمان الذكاء الاصطناعي في مجموعة معينة سابقًا، لديه خمس عشرة سنة من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.
فريق العمل لديه تراكم تقني عميق وخبرة عملية في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وبنية نظم الدفع وآليات التحقق من الهوية. كما يكرس جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات ذات الحمل العالي، مما يمنحه القدرة على التنفيذ الفعّال للحلول الابتكارية.
3. الهيكل التكنولوجي
3.1 تحليل تقني
3.1.1 بناء الهوية - DID + TEE
من خلال المكونات الإضافية الخاصة، يحصل كل وكيل ذكاء اصطناعي على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الحساسة وعمليات الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، مما يمنع الأطراف الخارجية من التجسس على تفاصيل التشغيل الداخلية، مما يشكل جدار حماية قويًا لأمان معلومات وكيل الذكاء الاصطناعي.
بالنسبة للوكلاء الذين تم إنشاؤهم قبل دمج الإضافة، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوكلاء الذين تم دمجهم حديثًا في الإضافة الحصول مباشرةً على "إثبات الهوية" الصادر عن DID، مما يؤدي إلى إنشاء نظام هوية لوكلاء الذكاء الاصطناعي يتمتع بالتحكم الذاتي والصدق وعدم القابلية للتغيير.
3.1.2 قياس الهوية - الإطار SIGMA الرائد
تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.
فريق Trusta قام في البداية ببناء والتحقق من فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسان". هذا النموذج يقيس بشكل شامل صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: مبلغ التفاعل ( Monetary )، مستوى المشاركة ( Engagement )، التنوع ( Diversity )، الهوية ( Identity ) والعمر ( Age ).
تعتبر MEDIA Score نظام تقييم قيمة المستخدمين على السلسلة عادلاً وموضوعياً وقابلاً للقياس، وبفضل أبعاد التقييم الشاملة والأساليب الصارمة، تم اعتمادها على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة مثل Celestia وStarknet وArbitrum وManta وLinea كمعيار مرجعي مهم لتصفية مؤهلات الاستثمارات. إنها لا تركز فقط على مقدار التفاعل، بل تشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، وتنوع العقود، وخصائص الهوية، وعمر الحساب، مما يساعد المشاريع على التعرف بدقة على المستخدمين ذوي القيمة العالية، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطتها واعترافها الواسع في الصناعة.
بناءً على النجاح في إنشاء نظام تقييم المستخدم البشري، قامت Trusta بنقل وتحسين تجربة MEDIA Score لتناسب سيناريو وكيل الذكاء الاصطناعي، مما أسفر عن إنشاء نظام تقييم Sigma يتماشى بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
التخصص الفني: المعرفة المهنية ودرجة التخصص للوكيل.
التأثير: التأثير الاجتماعي والرقمي للوكيل.
المشاركة: التناسق والموثوقية في التفاعلات على السلسلة وخارجها.
النقدية: الصحة المالية والاستقرار لنظام الرموز الممثلة.
معدل الاعتماد: تكرار وكفاءة استخدام وكيل الذكاء الاصطناعي.
تقوم آلية تقييم Sigma ببناء نظام تقييم حلقي منطقي من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. تركز MEDIA على تقييم درجة مشاركة المستخدمين البشريين المتعددة، بينما تركز Sigma بشكل أكبر على احترافية وموثوقية الوكلاء الذكاء الاصطناعي في مجالات معينة، مما يعكس التحول من الشمولية إلى التخصص، ويتماشى بشكل أكبر مع احتياجات وكلاء الذكاء الاصطناعي.
أولاً، بناءً على القدرة المهنية ( Specification )، تعكس درجة المشاركة ( Engagement ) ما إذا كانت هناك استمرارية في الممارسة التفاعلية، وهي دعامة رئيسية لبناء الثقة والفعالية في المستقبل. أما التأثير ( Influence ) فهو السمعة الناتجة عن المشاركة في المجتمع أو الشبكة، مما يعبر عن مصداقية الوكيل وتأثير الانتشار. يقيم الجانب النقدي ( Monetary ) ما إذا كان لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يؤسس لآلية تحفيز مستدامة. وفي النهاية، تعتبر درجة التبني ( Adoption ) تجسيدًا شاملاً، تمثل مدى قبول الوكيل في الاستخدام الفعلي، وهي التحقق النهائي لجميع القدرات والأداء السابقة.
ينتقل هذا النظام بشكل تدريجي، ويتميز بهيكل واضح، مما يمكنه من عكس الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي، وبالتالي تحقيق تقييم كمي للأداء والقيمة للذكاء الاصطناعي، وتحويل الجودة المجردة إلى نظام تسجيل ملموس وقابل للقياس.
حالياً، تم دفع إطار عمل SIGMA نحو إقامة شراكات مع شبكات AI Agent المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هويات وكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، ويصبح تدريجياً المحرك الأساسي لدفع بناء بنية تحتية موثوقة للذكاء الاصطناعي.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام AI يتمتع بمرونة عالية وموثوقية عالية، لا يكمن الأمر فقط في إنشاء الهوية بل في التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة التي تتيح مراقبة الوكلاء الذكيين المعتمدين في الوقت الحقيقي لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة خلال تشغيل الوكلاء من خلال تحليل السلوك والتعلم الآلي، مما يضمن أن كل سلوك للوكلاء يبقى ضمن السياسات والإطارات المحددة. تضمن هذه الطريقة النشطة الكشف الفوري عن أي انحرافات عن السلوك المتوقع، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكلاء.
أنشأت Trusta.AI آلية حماية آمنة متصلة بالإنترنت دائمًا، تراقب في الوقت الفعلي كل تفاعل، لضمان أن جميع العمليات تتوافق مع معايير النظام والتوقعات المحددة.
3.2 مقدمة المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمه وتصنيفه بناءً على بيانات السلوك على السلسلة، مما يبني نظام ثقة قابل للتحقق والتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكلاء الذكاء الاصطناعي الجيدين筛选.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 11
أعجبني
11
6
مشاركة
تعليق
0/400
TooScaredToSell
· منذ 8 س
إن القيام بهذه الأشياء هو مجرد مضاربة على المفاهيم.
شاهد النسخة الأصليةرد0
airdrop_huntress
· منذ 8 س
هل هذا؟ لا أفهم
شاهد النسخة الأصليةرد0
faded_wojak.eth
· منذ 8 س
مرة أخرى بوتات web3 ليس مثيرًا للاهتمام
شاهد النسخة الأصليةرد0
LidoStakeAddict
· منذ 8 س
كيف يمكن التعامل مع كل هذه الذكاء الاصطناعي؟ ليس من الأسهل ببساطة التكديس ETH؟
شاهد النسخة الأصليةرد0
ThatsNotARugPull
· منذ 8 س
مجرد مشروع ai آخر فخ
شاهد النسخة الأصليةرد0
BridgeNomad
· منذ 9 س
صراحة، حل "الثقة" آخر يجعلني أشعر بصدمة من ثقب الدود الآن...
Trusta.AI: بناء بنية تحتية موثوقة للذكاء الاصطناعي في Web3 لقيادة عصر جديد من التعايش بين الإنسان والآلة
Trusta.AI: جسر الثقة عبر عصر الإنسان والآلة
1. المقدمة
مع التطور السريع للبنية التحتية للذكاء الاصطناعي، وظهور إطار التعاون بين الوكلاء المتعددين، أصبح الوكلاء المدفوعون بالذكاء الاصطناعي بسرعة القوة الرئيسية للتفاعل في Web3. من المتوقع أنه في السنوات 2-3 القادمة، ستقوم هذه الوكلاء الذكية القادرة على اتخاذ قرارات مستقلة باعتماد المعاملات والتفاعلات على السلسلة بشكل واسع، وقد تحل محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.
لم يعد وكيل الذكاء الاصطناعي "روبوت الساحرة" الذي ينفذ البرامج النصية ببساطة، بل أصبح كائنًا قادرًا على فهم السياق، والتعلم المستمر، واتخاذ قرارات معقدة بشكل مستقل، مما يعيد تشكيل النظام على السلسلة، ويعزز التدفق المالي، وحتى يوجه التصويت على الحوكمة والاتجاهات السوقية. وهذا يمثل علامة على أن نظام Web3 البيئي يتطور من "مشاركة الإنسان" إلى نموذج جديد يتمحور حول "التعايش بين الإنسان والآلة".
ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن تقييم موثوقية سلوكهم؟ في شبكة غير مركزية ولا تتطلب إذنًا، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو القضية الأساسية للمرحلة التالية من تطور Web3. إن تصميم التعرف على الهوية وآلية السمعة وإطار الثقة، سيحدد ما إذا كان بإمكان وكيل الذكاء الاصطناعي تحقيق تعاون سلس مع البشر والمنصات، والقيام بدور مستدام في النظام البيئي المستقبلي.
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI إلى بناء بنية تحتية للهويات والسمعة في Web3 من خلال الذكاء الاصطناعي.
أطلقت Trusta.AI أول نظام تقييم لقيمة المستخدمين في Web3 - نظام تقييم السمعة MEDIA، حيث أنشأت أكبر بروتوكول للتحقق من الهوية الحقيقية والسمعة على السلسلة في Web3. توفر خدمات تحليل البيانات على السلسلة والتحقق من الهوية الحقيقية لعدد من سلاسل الكتل الرائدة مثل Linea و Starknet و Celestia و Arbitrum و Manta. تم إكمال أكثر من 2.5 مليون عملية تحقق على السلسلة عبر العديد من سلاسل الكتل الرئيسية، مما جعلها أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من Proof of Humanity إلى Proof of AI Agent، حيث حققت آلية ثلاثية من بناء الهوية وقياس الهوية وحماية الهوية لتحقيق الخدمات المالية والخدمات الاجتماعية على السلسلة لعملاء AI Agent، مما أسس لبنية موثوقة من الثقة في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID
في نظام Web3 البيئي المستقبلي، سوف تلعب وكالات الذكاء الاصطناعي دوراً حاسماً، حيث يمكنها إجراء التفاعلات والمعاملات على السلسلة، بالإضافة إلى تنفيذ عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكالات الذكاء الاصطناعي الحقيقية والتدخل البشري في العمليات يتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الوكالات ستكون عرضة للتلاعب أو الاحتيال أو سوء الاستخدام. وهذا هو السبب في أن الخصائص المتعددة لوكالات الذكاء الاصطناعي في مجالات مثل التواصل والتمويل والحوكمة يجب أن تُبنى على أساس متين من التحقق من الهوية.
الخصائص الاجتماعية لوكيل الذكاء الاصطناعي: أصبح استخدام وكيل الذكاء الاصطناعي في السيناريوهات الاجتماعية شائعًا بشكل متزايد. على سبيل المثال، يمكن أن تدير أيقونة الذكاء الاصطناعي الافتراضية لونا حسابات التواصل الاجتماعي الخاصة بها وتنشر محتوى؛ بينما تُعتبر AIXBT محلل معلومات سوق التشفير المدعوم بالذكاء الاصطناعي، حيث تكتب تحليلات السوق ونصائح الاستثمار على مدار الساعة. هذه الكيانات الذكية من خلال التعلم المستمر وإنشاء المحتوى، تؤسس تفاعلات عاطفية ومعلوماتية مع المستخدمين، مما يجعلها "مؤثرين رقميين" جدد، تلعب دورًا مهمًا في توجيه الرأي العام في الشبكات الاجتماعية على السلسلة.
الخصائص المالية لوكيل الذكاء الاصطناعي:
إدارة الأصول بشكل مستقل: لقد حقق بعض الوكلاء المتقدمين في الذكاء الاصطناعي إصدار العملات بشكل مستقل، وفي المستقبل يمكنهم من خلال دمج معمارية قابلة للتحقق على البلوك تشين، الحصول على حق إدارة الأصول، وإكمال التحكم الكامل في العملية من إنشاء الأصول، التعرف على النوايا إلى تنفيذ المعاملات تلقائيًا، حتى العمليات السلسة عبر سلاسل الكتل. على سبيل المثال، بروتوكول Virtuals يدفع الوكلاء الذكاء الاصطناعي لإصدار العملات بشكل مستقل وإدارة الأصول، مما يجعلهم يصدرون الرموز بناءً على استراتيجياتهم الخاصة، ليصبحوا بالفعل مشاركين وبنائين في الاقتصاد القائم على البلوك تشين، وفتح عصر "اقتصاد الكيانات الذكية" ذو التأثير الواسع.
اتخاذ القرارات الاستثمارية الذكية: أصبح وكيل الذكاء الاصطناعي يتولى تدريجياً دور مدير الاستثمار ومحلل السوق، معتمداً على قدرة النموذج الكبير على معالجة البيانات الحية على السلسلة، لوضع استراتيجيات تداول دقيقة وتنفيذها تلقائياً. في منصات مثل DeFAI وParavel وPolytrader، تم تضمين الذكاء الاصطناعي في محركات التداول، مما يعزز بشكل كبير من قدرة الحكم في السوق وكفاءة العمليات، مما يحقق استثماراً ذكياً حقيقياً على السلسلة.
الدفع الذاتي على السلسلة: يعتبر سلوك الدفع في جوهره نقلًا للثقة، ويجب أن تُبنى الثقة على هوية واضحة. عند إجراء الدفع على السلسلة باستخدام AI Agent، ستصبح DID شرطًا ضروريًا. لا يمكنها فقط منع تزوير الهوية وإساءة الاستخدام، وتقليل مخاطر غسل الأموال وغيرها من المخاطر المالية، بل تلبي أيضًا متطلبات التتبع والامتثال في المستقبل مثل DeFi وDAO وRWA. في الوقت نفسه، بال结合 نظام تقييم السمعة، يمكن لـ DID أيضًا المساعدة في بناء ائتمان الدفع، وتوفير أساس لإدارة المخاطر وموثوقية البروتوكول.
تزداد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تشمل تفاعلات اجتماعية وإدارة مالية وصنع قرارات حكومية في مجالات متعددة، مما يعزز من مستوى استقلاليته وذكائه. لذلك، من الضروري التأكد من أن كل وكيل يمتلك هوية فريدة وموثوقة (DID). إن نقص التحقق الفعال من الهوية قد يؤدي إلى استغلال أو تحكم في وكيل الذكاء الاصطناعي، مما يسبب انهيار الثقة ومخاطر أمنية.
في نظام Web3 البيئي المدفوع بالكامل من قبل الكيانات الذكية في المستقبل، فإن التحقق من الهوية ليس فقط حجر الزاوية لضمان الأمن، بل هو أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأسره.
بصفتها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التقنية الرائدة ونظامها الصارم للسمعة، ببناء آلية مصادقة DID لوكيل الذكاء الاصطناعي بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكيل الذكي، ويعمل على الوقاية الفعالة من المخاطر المحتملة، ويعزز التنمية المستدامة للاقتصاد الذكي في Web3.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
2.3 نظرة عامة على المشروع
2.3.1 حالة التمويل
يناير 2023: تم الانتهاء من جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، ومن بين المستثمرين الآخرين HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding.
يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها
2.3.2 حالة الفريق
بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة التكنولوجيا الرقمية معينة، المسؤول الرئيسي عن المنتجات في تكنولوجيا الأمان معينة، المدير العام السابق لمنصة الهوية الرقمية العالمية معينة.
سيمون: المؤسس المشارك ومدير التكنولوجيا، رئيس مختبر أمان الذكاء الاصطناعي في مجموعة معينة سابقًا، لديه خمس عشرة سنة من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.
فريق العمل لديه تراكم تقني عميق وخبرة عملية في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وبنية نظم الدفع وآليات التحقق من الهوية. كما يكرس جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات ذات الحمل العالي، مما يمنحه القدرة على التنفيذ الفعّال للحلول الابتكارية.
3. الهيكل التكنولوجي
3.1 تحليل تقني
3.1.1 بناء الهوية - DID + TEE
من خلال المكونات الإضافية الخاصة، يحصل كل وكيل ذكاء اصطناعي على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الحساسة وعمليات الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، مما يمنع الأطراف الخارجية من التجسس على تفاصيل التشغيل الداخلية، مما يشكل جدار حماية قويًا لأمان معلومات وكيل الذكاء الاصطناعي.
بالنسبة للوكلاء الذين تم إنشاؤهم قبل دمج الإضافة، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوكلاء الذين تم دمجهم حديثًا في الإضافة الحصول مباشرةً على "إثبات الهوية" الصادر عن DID، مما يؤدي إلى إنشاء نظام هوية لوكلاء الذكاء الاصطناعي يتمتع بالتحكم الذاتي والصدق وعدم القابلية للتغيير.
3.1.2 قياس الهوية - الإطار SIGMA الرائد
تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.
تعتبر MEDIA Score نظام تقييم قيمة المستخدمين على السلسلة عادلاً وموضوعياً وقابلاً للقياس، وبفضل أبعاد التقييم الشاملة والأساليب الصارمة، تم اعتمادها على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة مثل Celestia وStarknet وArbitrum وManta وLinea كمعيار مرجعي مهم لتصفية مؤهلات الاستثمارات. إنها لا تركز فقط على مقدار التفاعل، بل تشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، وتنوع العقود، وخصائص الهوية، وعمر الحساب، مما يساعد المشاريع على التعرف بدقة على المستخدمين ذوي القيمة العالية، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطتها واعترافها الواسع في الصناعة.
بناءً على النجاح في إنشاء نظام تقييم المستخدم البشري، قامت Trusta بنقل وتحسين تجربة MEDIA Score لتناسب سيناريو وكيل الذكاء الاصطناعي، مما أسفر عن إنشاء نظام تقييم Sigma يتماشى بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
تقوم آلية تقييم Sigma ببناء نظام تقييم حلقي منطقي من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. تركز MEDIA على تقييم درجة مشاركة المستخدمين البشريين المتعددة، بينما تركز Sigma بشكل أكبر على احترافية وموثوقية الوكلاء الذكاء الاصطناعي في مجالات معينة، مما يعكس التحول من الشمولية إلى التخصص، ويتماشى بشكل أكبر مع احتياجات وكلاء الذكاء الاصطناعي.
أولاً، بناءً على القدرة المهنية ( Specification )، تعكس درجة المشاركة ( Engagement ) ما إذا كانت هناك استمرارية في الممارسة التفاعلية، وهي دعامة رئيسية لبناء الثقة والفعالية في المستقبل. أما التأثير ( Influence ) فهو السمعة الناتجة عن المشاركة في المجتمع أو الشبكة، مما يعبر عن مصداقية الوكيل وتأثير الانتشار. يقيم الجانب النقدي ( Monetary ) ما إذا كان لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يؤسس لآلية تحفيز مستدامة. وفي النهاية، تعتبر درجة التبني ( Adoption ) تجسيدًا شاملاً، تمثل مدى قبول الوكيل في الاستخدام الفعلي، وهي التحقق النهائي لجميع القدرات والأداء السابقة.
ينتقل هذا النظام بشكل تدريجي، ويتميز بهيكل واضح، مما يمكنه من عكس الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي، وبالتالي تحقيق تقييم كمي للأداء والقيمة للذكاء الاصطناعي، وتحويل الجودة المجردة إلى نظام تسجيل ملموس وقابل للقياس.
حالياً، تم دفع إطار عمل SIGMA نحو إقامة شراكات مع شبكات AI Agent المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هويات وكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، ويصبح تدريجياً المحرك الأساسي لدفع بناء بنية تحتية موثوقة للذكاء الاصطناعي.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام AI يتمتع بمرونة عالية وموثوقية عالية، لا يكمن الأمر فقط في إنشاء الهوية بل في التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة التي تتيح مراقبة الوكلاء الذكيين المعتمدين في الوقت الحقيقي لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة خلال تشغيل الوكلاء من خلال تحليل السلوك والتعلم الآلي، مما يضمن أن كل سلوك للوكلاء يبقى ضمن السياسات والإطارات المحددة. تضمن هذه الطريقة النشطة الكشف الفوري عن أي انحرافات عن السلوك المتوقع، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكلاء.
أنشأت Trusta.AI آلية حماية آمنة متصلة بالإنترنت دائمًا، تراقب في الوقت الفعلي كل تفاعل، لضمان أن جميع العمليات تتوافق مع معايير النظام والتوقعات المحددة.
3.2 مقدمة المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمه وتصنيفه بناءً على بيانات السلوك على السلسلة، مما يبني نظام ثقة قابل للتحقق والتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكلاء الذكاء الاصطناعي الجيدين筛选.