تدفق غير مسبوق للأبحاث في الذكاء الاصطناعي! المؤتمر الأكاديمي الدولي ICLR يتدخل، ويقوم بتنظيم المشاركات ذات الجودة المنخفضة

CryptoCity

استغلال الذكاء الاصطناعي يسيطر على الأوساط الأكاديمية، مع تدهور جودة الأبحاث وعمليات المراجعة، وتسرب المحتوى الخاطئ إلى نظام البحث، مما دفع المؤتمرات الدولية إلى تشديد القواعد بشكل عاجل، ويواجه الثقة العلمية اختبارًا حاسمًا في الانهيار.

موجة الذكاء الاصطناعي تعكس نفسها على صناعة البحث، حيث تواجه جودة الأوراق العلمية أزمة انهيار

في ظل التطور السريع لتقنيات الذكاء الاصطناعي على مستوى العالم، تقع الأوساط البحثية في أزمة ثقة غير مسبوقة. خلال السنوات الماضية، غمر نظام مراجعة الأبحاث في المؤتمرات العلمية الكبرى بكميات هائلة من المساهمات ذات الجودة المنخفضة، واكتشف الباحثون أن نسبة المساهمات البشرية في الأوراق والمراجعات زادت بشكل ملحوظ. هذا الظاهرة تثير مخاوف لا تتعلق فقط بأسلوب الكتابة، بل تتعلق بدقة المحتوى ذاته. عندما تصبح الدقة أساس البحث العلمي، فإن الأخطاء الناتجة عن الأدوات الآلية تتسلل بصمت إلى نتائج الأبحاث.

أشار الباحث من جامعة كاليفورنيا بيركلي، Inioluwa Deborah Raji، إلى أن المجتمع الأكاديمي متحمس لتطبيقات الذكاء الاصطناعي في صناعات أخرى، والمفارقة أن الصناعة نفسها تعاني من فوضى بسبب الاستخدام المفرط للذكاء الاصطناعي.

تشير البيانات إلى أن حجم هذه الأزمة قد بلغ مستوى التحذير. وفقًا لتقرير صدر عن جامعة ستانفورد في أغسطس 2025، يوجد ما يصل إلى 22% من أوراق علوم الحاسوب التي تظهر علامات استخدام نماذج اللغة الكبيرة (LLM). كشفت شركة تحليل النصوص الناشئة Pangram في استطلاعها لمؤتمر ICLR الدولي للتعلم التمثيلي لعام 2025، أن حوالي 21% من آراء المراجعين كانت مولدة بالكامل بواسطة الذكاء الاصطناعي، وأن أكثر من نصف عمليات المراجعة كانت بمساعدة تحريرية من الذكاء الاصطناعي. والأكثر إثارة للدهشة، أن حوالي 9% من المساهمات المقدمة تحتوي على أكثر من نصف محتواها من إنتاج الذكاء الاصطناعي.

لاحظ أستاذ علوم الحاسوب في جامعة ولاية أوريغون، Thomas G. Dietterich، أن كمية التحميلات على منصة الأرشيف المفتوح arXiv قد ارتفعت بشكل كبير، ويعود جزء من ذلك إلى تدفق الباحثين، لكن الدافع الرئيسي هو تسريع أدوات الذكاء الاصطناعي.

هل أصبحت آليات المراجعة غير فعالة؟ والمؤتمرات الكبرى تتخذ إجراءات صارمة

في مواجهة تدفق الأوراق ذات الجودة المنخفضة والتعليقات الآلية، وصلت الأوساط الأكاديمية إلى نقطة لا مفر من اتخاذ إجراءات فيها. في نوفمبر 2024، اكتشف مراجعو مؤتمر ICLR ورقة يشتبه في أنها مولدة بواسطة الذكاء الاصطناعي، واحتلت المرتبة السابعة عشرة بين جميع المساهمات، مما أثار شكوكًا قوية في نظام التقييم الحالي. وفي يناير 2025، كشفت شركة الاختبار GPTZero، خلال عرضها لـ 50 ورقة في مؤتمر NeurIPS الرائد في الذكاء الاصطناعي، عن أكثر من 100 خطأ ناتج عن التوليد الآلي. تضمنت هذه الأخطاء مراجع افتراضية وبيانات مخططات خاطئة، مما يهدد مصداقية البحث العلمي بشكل خطير.

لمواجهة هذه الظاهرة، قامت ICLR بتحديث قواعد الاستخدام: إذا لم يكشف الباحثون عن استخدام نماذج اللغة بشكل واسع، فسيتم رفض أوراقهم مباشرة؛ كما أن المراجعين الذين يقدمون تعليقات منخفضة الجودة تلقائيًا، قد يواجهون رفض أوراقهم أيضًا.

حذر أستاذ علوم الحاسوب في جامعة كاليفورنيا بيركلي، Hany Farid، بجدية من أن استمرار المجتمع العلمي في نشر أوراق خاطئة ومنخفضة الجودة سيؤدي إلى فقدان الثقة الأساسية في العلماء. في الواقع، تجاوز معدل نمو الأوراق العلمية بشكل كبير تطور تقنيات الكشف. على سبيل المثال، في مؤتمر NeurIPS، كان عدد المساهمات في 2020 حوالي 9467، وارتفع إلى 17491 في 2024، وبلغ 21575 في 2025. وحتى ظهرت حالات متطرفة حيث قدم مؤلف واحد أكثر من 100 ورقة خلال سنة واحدة، وهو أمر يتجاوز بشكل واضح الحد الطبيعي للإنتاج البشري. حتى الآن، يفتقر المجتمع العلمي إلى معيار موحد للتعرف على النصوص الآلية، مما يصعب جهود الوقاية.

المصدر: جامعة كاليفورنيا بيركلي، أستاذ علوم الحاسوب Hany Farid

الضغوط التجارية وتلوث البيانات، معركة طويلة في صفوف البحث العلمي

وراء ظاهرة التضخم الأكاديمي، تتشابك المنافسة التجارية المعقدة والاعتبارات الواقعية. مع ارتفاع رواتب صناعة الذكاء الاصطناعي وتزايد التنافس التكنولوجي، اضطرت بعض مراكز البحث إلى التركيز على كمية الإنتاج بدلاً من الجودة. السوق المبالغ فيه جذب العديد من غير المختصين الباحثين عن نتائج سريعة، مما أدى إلى تقليل عمق البحث العلمي. ومع ذلك، يؤكد الخبراء على ضرورة التمييز بين “الاستخدام المشروع” و"الاستغلال المفرط".

ذكر Thomas G. Dietterich أن أدوات الذكاء الاصطناعي يمكن أن تساعد الباحثين غير الناطقين باللغة الإنجليزية (مثل الباحثين من الصين) على تحسين وضوح التعبير اللغوي، وأن هذا النوع من المساعدة في الكتابة يُعتبر استخدامًا إيجابيًا.

لكن الأزمة الأعمق تتعلق بـ “تلوث البيانات” الذي يهدد مستقبل الذكاء الاصطناعي. تدفع شركات التكنولوجيا الكبرى مثل Google وAnthropic وOpenAI لتطوير نماذج تعتبر شركاء في البحث في مجالات علوم الحياة، وهذه النماذج تعتمد بشكل كبير على النصوص الأكاديمية في تدريبها.

أشار Hany Farid إلى أنه إذا كانت البيانات التدريبية مليئة بالمحتوى الاصطناعي المُنتج يدويًا، فإن أداء النماذج سيتدهور بشكل كبير.

أظهرت الدراسات أن إدخال نماذج اللغة الكبيرة إلى بيانات غير منتقاة يؤدي إلى انهيارها وإنتاج معلومات لا معنى لها. اعترف Kevin Weil، مسؤول قسم العلوم في OpenAI، بأنه رغم أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لتسريع البحث، إلا أن المراقبة البشرية والفحص ضروريان، وأن الأدوات التقنية لا يمكن أن تلغي الحاجة إلى الصرامة في عملية البحث العلمي.

تم تجميع محتوى هذا المقال بواسطة وكيل التشفير، مع مراجعة وتحرير من “المدينة المشفرة”. لا تزال العملية في مرحلة التدريب، وقد توجد انحرافات منطقية أو أخطاء في المعلومات، ويُرجى اعتبار المحتوى مرجعًا فقط، وعدم اعتباره نصيحة استثمارية.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات