حقق Manus تقدمًا بارزًا في اختبار GAIA المعيار، مما أثار التفكير في مسار تطوير الذكاء الاصطناعي.
حطمت Manus رقمًا قياسيًا جديدًا في اختبار GAIA المعياري، حيث تفوقت أداؤها على نماذج اللغة الكبيرة من نفس الفئة. وهذا يعني أن Manus قادرة على إتمام المهام المعقدة بشكل مستقل، مثل المفاوضات التجارية بين الدول، التي تشمل تحليل بنود العقود، وتطوير الاستراتيجيات، وتوليد الحلول، بل وتنسيق الفرق القانونية والمالية. تكمن مزايا Manus في قدرتها على تفكيك الأهداف الديناميكية، والقدرة على الاستدلال عبر الأنماط المختلفة، وقدرتها على التعلم المعزز للذاكرة. يمكنها تفكيك المهام المعقدة إلى مئات من المهام الفرعية القابلة للتنفيذ، مع معالجة أنواع متعددة من البيانات، ومن خلال التعلم المعزز، تعمل على تحسين كفاءة اتخاذ القرار وتقليل معدل الأخطاء.
أثارت اختراقات Manus مرة أخرى نقاشًا في الصناعة حول مسارات تطوير الذكاء الاصطناعي: هل سيكون المستقبل نحو الذكاء الاصطناعي العام (AGI) أم أنظمة متعددة الوكلاء (MAS) ستسود بالتعاون؟
تشير فلسفة تصميم Manus إلى احتمالين:
مسار AGI: من خلال تحسين قدرات نظام ذكي واحد باستمرار، ليكون قريبًا من مستوى اتخاذ القرارات الشامل للبشر.
مسار MAS: استخدام Manus كمنسق رئيسي لتوجيه آلاف الوكلاء المتخصصين للعمل معًا.
إن مناقشة هذين المسارين تعكس في الواقع قضية مركزية في تطوير الذكاء الاصطناعي: كيفية تحقيق التوازن بين الكفاءة والأمان؟ عندما يقترب نظام ذكي واحد من AGI، تزداد مخاطر عدم شفافية عملية اتخاذ القرار؛ بينما يمكن أن يؤدي التعاون بين عدة وكلاء ذكيين إلى توزيع المخاطر، إلا أنه قد يفوت اللحظات الحاسمة في اتخاذ القرار بسبب تأخير الاتصالات.
تقدم Manus يعكس أيضًا المخاطر الكامنة في تطوير الذكاء الاصطناعي. على سبيل المثال، هناك قضية خصوصية البيانات: في سياق الرعاية الصحية، يحتاج Manus للوصول إلى بيانات الجينوم الحساسة للمرضى؛ وفي المفاوضات المالية، قد يتضمن الأمر معلومات مالية غير معلنة عن الشركات. بالإضافة إلى ذلك، توجد مشكلة تحيز الخوارزميات، مثل تقديم اقتراحات غير عادلة للرواتب لمجموعات معينة خلال عملية التوظيف، أو معدل الخطأ العالي في مراجعة العقود القانونية المتعلقة بشروط الصناعات الناشئة. كما أن الثغرات الأمنية تمثل مشكلة خطيرة، حيث قد يتمكن القراصنة من تعكير صفو حكم Manus من خلال إدخال ترددات صوتية معينة.
تسلط هذه القضايا الضوء على حقيقة واحدة: كلما كان النظام أكثر ذكاءً، زادت السطح المحتمل للهجمات.
في مجال Web3، كانت الأمان دائمًا موضوعًا يحظى باهتمام كبير. وقد أدت نظرية "مثلث المستحيل" القائمة على blockchain (الصعوبة في تحقيق الأمان، واللامركزية، وقابلية التوسع في آن واحد) إلى تطوير العديد من الحلول التشفيرية:
نموذج الأمان ذو الثقة الصفرية: جوهر هذا النموذج هو "لا تثق بأحد، تحقق دائمًا"، ويتم إجراء تحقق صارم من الهوية والتفويض لكل طلب وصول.
الهوية اللامركزية (DID): هذه معيار جديد للتعرف على الهوية، يسمح للكيانات بالحصول على هوية قابلة للتحقق ودائمة دون الحاجة إلى تسجيل مركزي.
التشفير المتجانس بالكامل (FHE): هذه تقنية تشفير متقدمة تسمح بإجراء عمليات حسابية على البيانات المشفرة دون الحاجة إلى فك تشفيرها، مما يجعلها مناسبة بشكل خاص لسيناريوهات الحوسبة السحابية وإسناد البيانات.
تُعتبر التشفير المتجانس كأحدث تقنيات التشفير، و لديها القدرة على أن تصبح الأداة الرئيسية لحل مشكلات الأمان في عصر الذكاء الاصطناعي. إنه يسمح بمعالجة البيانات في حالة مشفرة، حتى أن أنظمة الذكاء الاصطناعي نفسها لا يمكنها فك تشفير المعلومات الأصلية.
في التطبيقات العملية، يمكن أن تعزز FHE أمان أنظمة الذكاء الاصطناعي من عدة جوانب:
على مستوى البيانات: يتم معالجة جميع المعلومات المدخلة من قبل المستخدم (بما في ذلك الخصائص البيولوجية، الصوت، إلخ) في حالة مشفرة، لحماية خصوصية المستخدم.
من ناحية الخوارزمية: من خلال FHE لتحقيق "تدريب النموذج المشفر"، مما يجعل حتى المطورين غير قادرين على مراقبة عملية اتخاذ قرارات الذكاء الاصطناعي بشكل مباشر.
الجانب التعاوني: تستخدم الاتصالات بين عدة وكلاء تشفير العتبة، حتى إذا تم اختراق عقدة واحدة، فلن يؤدي ذلك إلى تسرب البيانات العالمية.
على الرغم من أن تقنيات أمان Web3 قد تبدو بعيدة عن المستخدم العادي، إلا أنها مرتبطة ارتباطًا وثيقًا بمصالح الجميع. في هذا العالم الرقمي المليء بالتحديات، لا يمكن حماية حقوق المستخدمين بشكل حقيقي إلا من خلال تعزيز تدابير الأمان باستمرار.
مع اقتراب تقنيات الذكاء الاصطناعي من مستوى الذكاء البشري، نحتاج إلى أنظمة دفاعية أكثر تقدماً. لا تقتصر قيمة FHE على حل القضايا الأمنية الحالية، بل هي أيضاً استعداد لعصر الذكاء الاصطناعي الأكثر قوة في المستقبل. في الطريق نحو AGI، لم يعد FHE خياراً، بل هو شرط ضروري لضمان التنمية الآمنة للذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
Manus تحقق من معيار GAIA مما أثار تفكيرًا جديدًا في تطوير الذكاء الاصطناعي وأمان Web3
حقق Manus تقدمًا بارزًا في اختبار GAIA المعيار، مما أثار التفكير في مسار تطوير الذكاء الاصطناعي.
حطمت Manus رقمًا قياسيًا جديدًا في اختبار GAIA المعياري، حيث تفوقت أداؤها على نماذج اللغة الكبيرة من نفس الفئة. وهذا يعني أن Manus قادرة على إتمام المهام المعقدة بشكل مستقل، مثل المفاوضات التجارية بين الدول، التي تشمل تحليل بنود العقود، وتطوير الاستراتيجيات، وتوليد الحلول، بل وتنسيق الفرق القانونية والمالية. تكمن مزايا Manus في قدرتها على تفكيك الأهداف الديناميكية، والقدرة على الاستدلال عبر الأنماط المختلفة، وقدرتها على التعلم المعزز للذاكرة. يمكنها تفكيك المهام المعقدة إلى مئات من المهام الفرعية القابلة للتنفيذ، مع معالجة أنواع متعددة من البيانات، ومن خلال التعلم المعزز، تعمل على تحسين كفاءة اتخاذ القرار وتقليل معدل الأخطاء.
أثارت اختراقات Manus مرة أخرى نقاشًا في الصناعة حول مسارات تطوير الذكاء الاصطناعي: هل سيكون المستقبل نحو الذكاء الاصطناعي العام (AGI) أم أنظمة متعددة الوكلاء (MAS) ستسود بالتعاون؟
تشير فلسفة تصميم Manus إلى احتمالين:
مسار AGI: من خلال تحسين قدرات نظام ذكي واحد باستمرار، ليكون قريبًا من مستوى اتخاذ القرارات الشامل للبشر.
مسار MAS: استخدام Manus كمنسق رئيسي لتوجيه آلاف الوكلاء المتخصصين للعمل معًا.
إن مناقشة هذين المسارين تعكس في الواقع قضية مركزية في تطوير الذكاء الاصطناعي: كيفية تحقيق التوازن بين الكفاءة والأمان؟ عندما يقترب نظام ذكي واحد من AGI، تزداد مخاطر عدم شفافية عملية اتخاذ القرار؛ بينما يمكن أن يؤدي التعاون بين عدة وكلاء ذكيين إلى توزيع المخاطر، إلا أنه قد يفوت اللحظات الحاسمة في اتخاذ القرار بسبب تأخير الاتصالات.
تقدم Manus يعكس أيضًا المخاطر الكامنة في تطوير الذكاء الاصطناعي. على سبيل المثال، هناك قضية خصوصية البيانات: في سياق الرعاية الصحية، يحتاج Manus للوصول إلى بيانات الجينوم الحساسة للمرضى؛ وفي المفاوضات المالية، قد يتضمن الأمر معلومات مالية غير معلنة عن الشركات. بالإضافة إلى ذلك، توجد مشكلة تحيز الخوارزميات، مثل تقديم اقتراحات غير عادلة للرواتب لمجموعات معينة خلال عملية التوظيف، أو معدل الخطأ العالي في مراجعة العقود القانونية المتعلقة بشروط الصناعات الناشئة. كما أن الثغرات الأمنية تمثل مشكلة خطيرة، حيث قد يتمكن القراصنة من تعكير صفو حكم Manus من خلال إدخال ترددات صوتية معينة.
تسلط هذه القضايا الضوء على حقيقة واحدة: كلما كان النظام أكثر ذكاءً، زادت السطح المحتمل للهجمات.
في مجال Web3، كانت الأمان دائمًا موضوعًا يحظى باهتمام كبير. وقد أدت نظرية "مثلث المستحيل" القائمة على blockchain (الصعوبة في تحقيق الأمان، واللامركزية، وقابلية التوسع في آن واحد) إلى تطوير العديد من الحلول التشفيرية:
نموذج الأمان ذو الثقة الصفرية: جوهر هذا النموذج هو "لا تثق بأحد، تحقق دائمًا"، ويتم إجراء تحقق صارم من الهوية والتفويض لكل طلب وصول.
الهوية اللامركزية (DID): هذه معيار جديد للتعرف على الهوية، يسمح للكيانات بالحصول على هوية قابلة للتحقق ودائمة دون الحاجة إلى تسجيل مركزي.
التشفير المتجانس بالكامل (FHE): هذه تقنية تشفير متقدمة تسمح بإجراء عمليات حسابية على البيانات المشفرة دون الحاجة إلى فك تشفيرها، مما يجعلها مناسبة بشكل خاص لسيناريوهات الحوسبة السحابية وإسناد البيانات.
تُعتبر التشفير المتجانس كأحدث تقنيات التشفير، و لديها القدرة على أن تصبح الأداة الرئيسية لحل مشكلات الأمان في عصر الذكاء الاصطناعي. إنه يسمح بمعالجة البيانات في حالة مشفرة، حتى أن أنظمة الذكاء الاصطناعي نفسها لا يمكنها فك تشفير المعلومات الأصلية.
في التطبيقات العملية، يمكن أن تعزز FHE أمان أنظمة الذكاء الاصطناعي من عدة جوانب:
على مستوى البيانات: يتم معالجة جميع المعلومات المدخلة من قبل المستخدم (بما في ذلك الخصائص البيولوجية، الصوت، إلخ) في حالة مشفرة، لحماية خصوصية المستخدم.
من ناحية الخوارزمية: من خلال FHE لتحقيق "تدريب النموذج المشفر"، مما يجعل حتى المطورين غير قادرين على مراقبة عملية اتخاذ قرارات الذكاء الاصطناعي بشكل مباشر.
الجانب التعاوني: تستخدم الاتصالات بين عدة وكلاء تشفير العتبة، حتى إذا تم اختراق عقدة واحدة، فلن يؤدي ذلك إلى تسرب البيانات العالمية.
على الرغم من أن تقنيات أمان Web3 قد تبدو بعيدة عن المستخدم العادي، إلا أنها مرتبطة ارتباطًا وثيقًا بمصالح الجميع. في هذا العالم الرقمي المليء بالتحديات، لا يمكن حماية حقوق المستخدمين بشكل حقيقي إلا من خلال تعزيز تدابير الأمان باستمرار.
مع اقتراب تقنيات الذكاء الاصطناعي من مستوى الذكاء البشري، نحتاج إلى أنظمة دفاعية أكثر تقدماً. لا تقتصر قيمة FHE على حل القضايا الأمنية الحالية، بل هي أيضاً استعداد لعصر الذكاء الاصطناعي الأكثر قوة في المستقبل. في الطريق نحو AGI، لم يعد FHE خياراً، بل هو شرط ضروري لضمان التنمية الآمنة للذكاء الاصطناعي.