رسالة BlockBeats، في 7 أبريل، أعلنت شركة أمان Web3 CertiK عن إطلاق أداة تدقيق بالذكاء الاصطناعي AI Auditor، بالتزامن مع نشر سلسلة من حلول تكامل مفتوحة المصدر لعوامل تطوير بالذكاء الاصطناعي (AI Coding Agents). تم تصميم هذا النظام في البداية كأداة مساعدة لخبرائها الأمنيين الداخليين، وبعد خضوعه للتحقق في سيناريوهات واقعية لأكثر من ستة أشهر، أصبح الآن متاحًا رسميًا للعامة. ووفقًا لما قيل، ففي تقييمات موجهة لـ 35 حادثة أمنية حقيقية متعلقة بـ Web3 لعام 2026 (لم تُستخدم بيانات الاختبار في تدريب النموذج أو في بناء قاعدة المعرفة)، نجحت CertiK AI Auditor في تحديد بدقة 88.6% من الأسباب الحقيقية الكامنة وراء الثغرات. يركز النظام في تصميمه على «نسبة إشارة إلى ضوضاء عالية»، أي مع الحفاظ على قدرة كشف قوية، يقلّل بصورة كبيرة ضجيج الإيجابيات الخاطئة.
مع تحول أدوات التطوير بالذكاء الاصطناعي والعوامل إلى معيار ثابت لفرق تطوير Web3، تتسارع منطقيات الحماية الأمنية في القطاع من «كشف ما بعد وقوع الحادث» إلى «الاندماج في جميع مراحل العملية». ستقوم CertiK AI Auditor بتحويل عمليات تدقيق الأمان التي كانت مستقلة عادةً عن المشروع في مرحلته اللاحقة إلى وظيفة مساعدة تعمل باستمرار داخل سير العمل؛ ما يتيح للمطورين الحصول على رؤى أمنية مرتبطة بالسلسلة دون الحاجة إلى تبديل البيئات، كما يقلّل كذلك وقت الاستجابة للتهديدات الناشئة.
ووفقًا لما قيل، تم إدراج AI Auditor ضمن خريطة أعمال CertiK طويلة الأجل المتعلقة بالذكاء الاصطناعي. وتذكر CertiK أن الفريق يعمل حاليًا على تطوير المزيد من الميزات الجديدة، ويخطط لدمج قدرات الأمان بشكل أوسع في أدوات تطوير أكثر شمولًا، وفي مسارات الامتثال، ونظام مراقبة على مستوى المؤسسات.