أخبار الذكاء الاصطناعي: تدفع OpenAI للباحثين للعثور على ما قد يحدث خطأ — لكن فرق السلامة الداخلية لديها لم تعد موجودة بالفعل

Cryptonews

الأخبار المتعلقة بالذكاء الاصطناعي الصادرة هذا الأسبوع من OpenAI تحمل حدة واضحة: فقد أطلقت الشركة زمالة Safety Fellowship مدفوعة، مقدمةً للباحثين الخارجيين بدلات أسبوعية قدرها 3,850 دولارًا لدراسة ما قد يحدث خطأ مع الذكاء الاصطناعي المتقدم — وذلك بعد أن أُعلن ذلك خلال ساعات من تحقيق من The New Yorker أفاد بأن OpenAI كانت قد حلت فرق السلامة الداخلية لديها وأزالت بهدوء كلمة “safely” من بيان مهمتها لدى مصلحة الضرائب الأمريكية (IRS).
ملخص

  • زمالة OpenAI Safety Fellowship، التي أُعلنت في 6 أبريل، تمتد من 14 سبتمبر 2026 حتى 5 فبراير 2027؛ ويحصل الزملاء على بدل أسبوعي قدره 3,850 دولارًا، وقرابة 15,000 دولار في موارد حوسبة شهرية، وإرشادًا من باحثين لدى OpenAI، لكنهم لن يحصلوا على وصول إلى الأنظمة الداخلية للشركة
  • تشمل أولويات مجالات البحث تقييم السلامة، والأخلاقيات، والمتانة، والتخفيفات القابلة للتوسع، والطرق التي تحافظ على الخصوصية، والإشراف على الوكلاء، وسوء الاستخدام عالي الخطورة — تَغلق طلبات التقديم في 3 مايو، ويُبلَّغ الزملاء حتى 25 يوليو
  • أفاد Ronan Farrow من The New Yorker في الأسبوع نفسه بأن OpenAI قد حلّت فريق superalignment الخاص بها، وفريق AGI Readiness، وفريق Mission Alignment منذ 2024، وأن ممثلًا من OpenAI رد على صحفي سأل عن باحثي السلامة الوجودية قائلاً: “ماذا تقصد بالسلامة الوجودية؟ هذا ليس، مثلًا، شيئًا.”

أعلنت OpenAI الزمالة في 6 أبريل باعتبارها “برنامجًا تجريبيًا لدعم أبحاث السلامة والمواءمة المستقلة وتطوير الجيل القادم من المواهب.” يدفع البرنامج 3,850 دولارًا أسبوعيًا، بما يزيد على 200,000 دولار سنويًا، بالإضافة إلى قرابة 15,000 دولار في الحوسبة الشهرية والإرشاد من باحثين لدى OpenAI. يعمل الزملاء من مساحة عمل Constellation’s Berkeley أو عن بُعد، وتُغلق طلبات التقديم في 3 مايو. الزمالة ليست مقتصرة على المتخصصين في الذكاء الاصطناعي — إذ تقوم OpenAI بالتجنيد من الأمن السيبراني، والعلوم الاجتماعية، والتفاعل بين الإنسان والحاسوب إلى جانب علوم الحاسوب.

أخبار الذكاء الاصطناعي: OpenAI تطلق زمالة Safety Fellowship بينما فرق السلامة الداخلية لديها اختفت

توقيت الأمر هو القصة. وثّقت تحقيقات Ronan Farrow في The New Yorker، المنشورة في اليوم نفسه، أن OpenAI قد حلت ثلاث منظمات داخلية متتالية للسلامة خلال 22 شهرًا. تم إيقاف فريق superalignment في مايو 2024 بعد مغادرة القائدين المشاركين Ilya Sutskever وJan Leike. كتب Leike عند رحيله أن “ثقافة السلامة والإجراءات قد تراجعت إلى الخلف لصالح منتجات لامعة.” وتبع ذلك فريق AGI Readiness في أكتوبر 2024. وتم تفكيك فريق Mission Alignment في فبراير 2026 بعد 16 شهرًا فقط. كما أفادت The New Yorker بأن ممثلًا في الشركة ردّ عندما طُلب منه التحدث إلى باحثي السلامة الوجودية لدى OpenAI: “ماذا تقصد بالسلامة الوجودية؟ هذا ليس، مثلًا، شيئًا.”

تنص الزمالة صراحةً على أنها لا تعوّض البنية التحتية الداخلية. يحصل الزملاء على أرصدة API وموارد حوسبة لكن دون أي وصول إلى الأنظمة، وهو ما يضع البرنامج على أنه تمويل بحثي بعيد المدى، وليس إعادة بناء للفرق التي تم حلها.

ماذا يتطلب الأمر من الزملاء لإنتاجه

يمتد جدول البحث عبر سبعة مجالات أولوية: تقييم السلامة، والأخلاقيات، والمتانة، والتخفيفات القابلة للتوسع، وطرق السلامة التي تحافظ على الخصوصية، والإشراف على الوكلاء، ومجالات سوء الاستخدام عالي الخطورة. بحلول نهاية البرنامج في فبراير 2027، يجب على كل زميل إنتاج مخرَج جوهري — ورقة أو معيارًا (benchmark) أو مجموعة بيانات. لا تُشترط مؤهلات أكاديمية محددة؛ إذ ذكرت OpenAI أنها تُولي الأولوية لقدرة البحث، والحكم التقني، وقدرة التنفيذ.

لماذا يهم ذلك خارج صناعة الذكاء الاصطناعي

كما ذكرت crypto.news، فإن الثقة في تعهدات شركات الذكاء الاصطناعي الرائدة بشأن السلامة هي إشارة سوقية تؤثر في تخصيص رأس المال عبر بنية الذكاء الاصطناعي التحتية، وتوكنات الذكاء الاصطناعي، وبروتوكولات DePIN ووكلاء الذكاء الاصطناعي التي تقع عند تقاطع التشفير والذكاء الاصطناعي. وكما أشارت crypto.news، فإن مسار إنفاق OpenAI ومصداقية أولوياتها التشغيلية تتم متابعتها عن كثب من جانب المستثمرين الذين يقيمون قطاع بنية الذكاء الاصطناعي التحتية — وهو قطاع يشهد تزايدًا في التداخل مع الأنظمة القائمة على blockchain. وما إذا كان يمكن للزملاء الخارجيين الذين يعملون دون وصول داخلي أن يؤثروا بشكل ذي معنى في تطوير النماذج هو سؤال ستبدأ أبحاث الدفعة الأولى بالإجابة عنه في أوائل 2027.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات