الأخبار المتعلقة بالذكاء الاصطناعي الصادرة هذا الأسبوع من OpenAI تحمل حدة واضحة: فقد أطلقت الشركة زمالة Safety Fellowship مدفوعة، مقدمةً للباحثين الخارجيين بدلات أسبوعية قدرها 3,850 دولارًا لدراسة ما قد يحدث خطأ مع الذكاء الاصطناعي المتقدم — وذلك بعد أن أُعلن ذلك خلال ساعات من تحقيق من The New Yorker أفاد بأن OpenAI كانت قد حلت فرق السلامة الداخلية لديها وأزالت بهدوء كلمة “safely” من بيان مهمتها لدى مصلحة الضرائب الأمريكية (IRS).
ملخص
أعلنت OpenAI الزمالة في 6 أبريل باعتبارها “برنامجًا تجريبيًا لدعم أبحاث السلامة والمواءمة المستقلة وتطوير الجيل القادم من المواهب.” يدفع البرنامج 3,850 دولارًا أسبوعيًا، بما يزيد على 200,000 دولار سنويًا، بالإضافة إلى قرابة 15,000 دولار في الحوسبة الشهرية والإرشاد من باحثين لدى OpenAI. يعمل الزملاء من مساحة عمل Constellation’s Berkeley أو عن بُعد، وتُغلق طلبات التقديم في 3 مايو. الزمالة ليست مقتصرة على المتخصصين في الذكاء الاصطناعي — إذ تقوم OpenAI بالتجنيد من الأمن السيبراني، والعلوم الاجتماعية، والتفاعل بين الإنسان والحاسوب إلى جانب علوم الحاسوب.
توقيت الأمر هو القصة. وثّقت تحقيقات Ronan Farrow في The New Yorker، المنشورة في اليوم نفسه، أن OpenAI قد حلت ثلاث منظمات داخلية متتالية للسلامة خلال 22 شهرًا. تم إيقاف فريق superalignment في مايو 2024 بعد مغادرة القائدين المشاركين Ilya Sutskever وJan Leike. كتب Leike عند رحيله أن “ثقافة السلامة والإجراءات قد تراجعت إلى الخلف لصالح منتجات لامعة.” وتبع ذلك فريق AGI Readiness في أكتوبر 2024. وتم تفكيك فريق Mission Alignment في فبراير 2026 بعد 16 شهرًا فقط. كما أفادت The New Yorker بأن ممثلًا في الشركة ردّ عندما طُلب منه التحدث إلى باحثي السلامة الوجودية لدى OpenAI: “ماذا تقصد بالسلامة الوجودية؟ هذا ليس، مثلًا، شيئًا.”
تنص الزمالة صراحةً على أنها لا تعوّض البنية التحتية الداخلية. يحصل الزملاء على أرصدة API وموارد حوسبة لكن دون أي وصول إلى الأنظمة، وهو ما يضع البرنامج على أنه تمويل بحثي بعيد المدى، وليس إعادة بناء للفرق التي تم حلها.
يمتد جدول البحث عبر سبعة مجالات أولوية: تقييم السلامة، والأخلاقيات، والمتانة، والتخفيفات القابلة للتوسع، وطرق السلامة التي تحافظ على الخصوصية، والإشراف على الوكلاء، ومجالات سوء الاستخدام عالي الخطورة. بحلول نهاية البرنامج في فبراير 2027، يجب على كل زميل إنتاج مخرَج جوهري — ورقة أو معيارًا (benchmark) أو مجموعة بيانات. لا تُشترط مؤهلات أكاديمية محددة؛ إذ ذكرت OpenAI أنها تُولي الأولوية لقدرة البحث، والحكم التقني، وقدرة التنفيذ.
كما ذكرت crypto.news، فإن الثقة في تعهدات شركات الذكاء الاصطناعي الرائدة بشأن السلامة هي إشارة سوقية تؤثر في تخصيص رأس المال عبر بنية الذكاء الاصطناعي التحتية، وتوكنات الذكاء الاصطناعي، وبروتوكولات DePIN ووكلاء الذكاء الاصطناعي التي تقع عند تقاطع التشفير والذكاء الاصطناعي. وكما أشارت crypto.news، فإن مسار إنفاق OpenAI ومصداقية أولوياتها التشغيلية تتم متابعتها عن كثب من جانب المستثمرين الذين يقيمون قطاع بنية الذكاء الاصطناعي التحتية — وهو قطاع يشهد تزايدًا في التداخل مع الأنظمة القائمة على blockchain. وما إذا كان يمكن للزملاء الخارجيين الذين يعملون دون وصول داخلي أن يؤثروا بشكل ذي معنى في تطوير النماذج هو سؤال ستبدأ أبحاث الدفعة الأولى بالإجابة عنه في أوائل 2027.