شركة أنثروبيك تتخلى عن وعدها الأساسي بالسلامة في وسط معركة خط أحمر للذكاء الاصطناعي مع البنتاغون

تخلت شركة أنثروبيك عن وعدها الأساسي بخصوص السلامة في وسط معركة خطوط حمراء للذكاء الاصطناعي مع البنتاغون

كلير دافي، ليزا إاديككو، CNN

الأربعاء، 25 فبراير 2026 الساعة 11:22 مساءً بتوقيت غرينتش+9 قراءة لمدة 4 دقائق

مؤسس أنثروبيك والمدير التنفيذي داريو أموداي. - تشانس ييه/غيتي إيماجز

أنثروبيك، شركة أسسها منفيون من شركة OpenAI قلقون من مخاطر الذكاء الاصطناعي، تليين مبدأ السلامة الأساسي لديها ردًا على المنافسة.

بدلاً من وضع حواجز ذاتية تقيد تطوير نماذج الذكاء الاصطناعي، تتبنى أنثروبيك إطار سلامة غير ملزم تقول إنه يمكن أن يتغير ويُعدل.

في منشور على مدونتها يوم الثلاثاء يوضح سياستها الجديدة، قالت أنثروبيك إن قصور سياستها المسؤولة للتطوير التي أطلقت قبل عامين قد يعيق قدرتها على المنافسة في سوق الذكاء الاصطناعي سريع النمو.

الاعلان مفاجئ، لأن أنثروبيك وصفت نفسها بأنها شركة ذكاء اصطناعي ذات “روح”. ويأتي ذلك أيضًا في نفس الأسبوع الذي تخوض فيه أنثروبيك معركة مهمة مع البنتاغون بشأن خطوط حمراء للذكاء الاصطناعي.

ليس من الواضح أن التغيير الذي أجرته أنثروبيك مرتبط بلقائها يوم الثلاثاء مع وزير الدفاع بيت هيجسث، الذي أعطى المدير التنفيذي لأنثروبيك داريو أموداي إنذارًا نهائيًا لخفض تدابير الحماية للذكاء الاصطناعي أو المخاطرة بفقدان عقد بقيمة 200 مليون دولار مع البنتاغون. هدد البنتاغون بوضع أنثروبيك على ما يشبه القائمة السوداء الحكومية.

لكن الشركة قالت في منشورها على المدونة إن سياستها السابقة للسلامة كانت مصممة لبناء توافق صناعي حول تقليل مخاطر الذكاء الاصطناعي – حواجز كانت الصناعة قد تجاوزتها. وأشارت أنثروبيك أيضًا إلى أن سياستها الأمنية كانت غير متوافقة مع المناخ السياسي الحالي المناهض للتنظيم في واشنطن.

سياسة أنثروبيك السابقة نصت على أنه يجب إيقاف تدريب نماذج أكثر قوة إذا تجاوزت قدراتها قدرة الشركة على السيطرة عليها وضمان سلامتها — وهو إجراء تم إزالته في السياسة الجديدة. جادلت أنثروبيك بأن المطورين المسؤولين للذكاء الاصطناعي الذين يوقفون النمو بينما يواصل الآخرون التقدم قد “يؤدي إلى عالم أقل أمانًا”.

كجزء من السياسة الجديدة، قالت أنثروبيك إنها ستفصل خطط السلامة الخاصة بها عن توصياتها لصناعة الذكاء الاصطناعي.

كتب أنثروبيك أنه كان يأمل أن تشجع مبادئ السلامة الأصلية “شركات الذكاء الاصطناعي الأخرى على اعتماد سياسات مماثلة. هذه فكرة ‘سباق نحو القمة’ (عكس ‘سباق نحو القاع’)، حيث يتم تحفيز مختلف اللاعبين في الصناعة على تحسين، بدلاً من إضعاف، تدابير الحماية والسلامة العامة لنماذجهم.”

وتقترح الآن أن هذا لم يتحقق. لم يرد متحدث باسم أنثروبيك على الفور على طلب تعليق.

السياسة الجديدة للسلامة

تتضمن سياسة أنثروبيك الجديدة خطة سلامة “طريق السلامة للمستقبل” التي تحدد إرشاداتها وحواجزها الذاتية. لكن الشركة اعترفت أن الإطار الجديد أكثر مرونة من سياستها السابقة.

متابعة القراءة  

“بدلاً من أن تكون التزامات صارمة، فهي أهداف عامة سنقيم تقدمنا نحوها بشكل علني”، قالت الشركة في منشورها على المدونة.

يأتي هذا التغيير بعد يوم من إعطاء وزير الدفاع بيت هيجسث مهلة يوم الجمعة لداريو أموداي، المدير التنفيذي لأنثروبيك، لخفض تدابير الحماية للذكاء الاصطناعي، أو المخاطرة بفقدان عقد بقيمة 200 مليون دولار مع البنتاغون ووضع الشركة على ما يشبه القائمة السوداء الحكومية.

تعبّر أنثروبيك عن قلقها بشأن قضيتين لا ترغب في التنازل عنهما، وفقًا لمصدر مطلع على اجتماعها مع هيجسث: الأسلحة التي يتحكم فيها الذكاء الاصطناعي والمراقبة الجماعية للمواطنين الأمريكيين. تعتقد أنثروبيك أن الذكاء الاصطناعي غير موثوق به بما يكفي لتشغيل الأسلحة، ولا توجد قوانين أو لوائح تغطي كيفية استخدام الذكاء الاصطناعي في المراقبة الجماعية، وفقًا للمصدر.

رحب باحثو الذكاء الاصطناعي بموقف أنثروبيك على وسائل التواصل الاجتماعي يوم الثلاثاء وأعربوا عن قلقهم بشأن فكرة استخدام الذكاء الاصطناعي للمراقبة الحكومية.

لطالما وضعت الشركة نفسها على أنها شركة ذكاء اصطناعي تعطي الأولوية للسلامة. نشرت أنثروبيك أبحاثًا تظهر كيف يمكن لنماذجها الخاصة من الذكاء الاصطناعي أن تكون قادرة على الابتزاز تحت ظروف معينة. كما تبرعت مؤخرًا بمبلغ 20 مليون دولار لمجموعة “Public First Action”، وهي مجموعة سياسية تدعو إلى تدابير حماية وتوعية حول الذكاء الاصطناعي.

لكن الشركة تواجه ضغطًا متزايدًا ومنافسة من الحكومة ومنافسيها. على سبيل المثال، يخطط هيجسث لاستخدام قانون الإنتاج الدفاعي ضد أنثروبيك وتصنيفها كمخاطر في سلسلة التوريد إذا لم تمتثل لمطالب البنتاغون، حسبما أفادت CNN يوم الثلاثاء. كما أن OpenAI وأنثروبيك في سباق لإطلاق أدوات ذكاء اصطناعي مؤسسية جديدة بهدف الفوز بسوق العمل.

اقترح جاريد كابلان، كبير العلماء في أنثروبيك، في مقابلة مع Time أن التغيير تم لأسباب تتعلق بالسلامة أكثر من المنافسة المتزايدة.

“شعرنا أنه لن يفيد أحدًا أن نوقف تدريب نماذج الذكاء الاصطناعي”، قال كابلان للمجلة. “لم نشعر حقًا، مع التقدم السريع للذكاء الاصطناعي، أن من المنطقي أن نلتزم بالتزامات أحادية الجانب… إذا كان المنافسون يتقدمون بسرعة.”

ساهمت هاداس جولد من CNN في إعداد هذا التقرير.

لمزيد من أخبار CNN والنشرات الإخبارية، أنشئ حسابًا على CNN.com

الشروط والخصوصية

لوحة تحكم الخصوصية

مزيد من المعلومات

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.3Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.29Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.32Kعدد الحائزين:1
    0.34%
  • القيمة السوقية:$2.41Kعدد الحائزين:2
    1.46%
  • القيمة السوقية:$2.33Kعدد الحائزين:2
    0.00%
  • تثبيت