العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
شركة أنثروبيك تتخلى عن وعدها الأساسي بالسلامة في وسط معركة خط أحمر للذكاء الاصطناعي مع البنتاغون
تخلت شركة أنثروبيك عن وعدها الأساسي بخصوص السلامة في وسط معركة خطوط حمراء للذكاء الاصطناعي مع البنتاغون
كلير دافي، ليزا إاديككو، CNN
الأربعاء، 25 فبراير 2026 الساعة 11:22 مساءً بتوقيت غرينتش+9 قراءة لمدة 4 دقائق
مؤسس أنثروبيك والمدير التنفيذي داريو أموداي. - تشانس ييه/غيتي إيماجز
أنثروبيك، شركة أسسها منفيون من شركة OpenAI قلقون من مخاطر الذكاء الاصطناعي، تليين مبدأ السلامة الأساسي لديها ردًا على المنافسة.
بدلاً من وضع حواجز ذاتية تقيد تطوير نماذج الذكاء الاصطناعي، تتبنى أنثروبيك إطار سلامة غير ملزم تقول إنه يمكن أن يتغير ويُعدل.
في منشور على مدونتها يوم الثلاثاء يوضح سياستها الجديدة، قالت أنثروبيك إن قصور سياستها المسؤولة للتطوير التي أطلقت قبل عامين قد يعيق قدرتها على المنافسة في سوق الذكاء الاصطناعي سريع النمو.
الاعلان مفاجئ، لأن أنثروبيك وصفت نفسها بأنها شركة ذكاء اصطناعي ذات “روح”. ويأتي ذلك أيضًا في نفس الأسبوع الذي تخوض فيه أنثروبيك معركة مهمة مع البنتاغون بشأن خطوط حمراء للذكاء الاصطناعي.
ليس من الواضح أن التغيير الذي أجرته أنثروبيك مرتبط بلقائها يوم الثلاثاء مع وزير الدفاع بيت هيجسث، الذي أعطى المدير التنفيذي لأنثروبيك داريو أموداي إنذارًا نهائيًا لخفض تدابير الحماية للذكاء الاصطناعي أو المخاطرة بفقدان عقد بقيمة 200 مليون دولار مع البنتاغون. هدد البنتاغون بوضع أنثروبيك على ما يشبه القائمة السوداء الحكومية.
لكن الشركة قالت في منشورها على المدونة إن سياستها السابقة للسلامة كانت مصممة لبناء توافق صناعي حول تقليل مخاطر الذكاء الاصطناعي – حواجز كانت الصناعة قد تجاوزتها. وأشارت أنثروبيك أيضًا إلى أن سياستها الأمنية كانت غير متوافقة مع المناخ السياسي الحالي المناهض للتنظيم في واشنطن.
سياسة أنثروبيك السابقة نصت على أنه يجب إيقاف تدريب نماذج أكثر قوة إذا تجاوزت قدراتها قدرة الشركة على السيطرة عليها وضمان سلامتها — وهو إجراء تم إزالته في السياسة الجديدة. جادلت أنثروبيك بأن المطورين المسؤولين للذكاء الاصطناعي الذين يوقفون النمو بينما يواصل الآخرون التقدم قد “يؤدي إلى عالم أقل أمانًا”.
كجزء من السياسة الجديدة، قالت أنثروبيك إنها ستفصل خطط السلامة الخاصة بها عن توصياتها لصناعة الذكاء الاصطناعي.
كتب أنثروبيك أنه كان يأمل أن تشجع مبادئ السلامة الأصلية “شركات الذكاء الاصطناعي الأخرى على اعتماد سياسات مماثلة. هذه فكرة ‘سباق نحو القمة’ (عكس ‘سباق نحو القاع’)، حيث يتم تحفيز مختلف اللاعبين في الصناعة على تحسين، بدلاً من إضعاف، تدابير الحماية والسلامة العامة لنماذجهم.”
وتقترح الآن أن هذا لم يتحقق. لم يرد متحدث باسم أنثروبيك على الفور على طلب تعليق.
السياسة الجديدة للسلامة
تتضمن سياسة أنثروبيك الجديدة خطة سلامة “طريق السلامة للمستقبل” التي تحدد إرشاداتها وحواجزها الذاتية. لكن الشركة اعترفت أن الإطار الجديد أكثر مرونة من سياستها السابقة.
“بدلاً من أن تكون التزامات صارمة، فهي أهداف عامة سنقيم تقدمنا نحوها بشكل علني”، قالت الشركة في منشورها على المدونة.
يأتي هذا التغيير بعد يوم من إعطاء وزير الدفاع بيت هيجسث مهلة يوم الجمعة لداريو أموداي، المدير التنفيذي لأنثروبيك، لخفض تدابير الحماية للذكاء الاصطناعي، أو المخاطرة بفقدان عقد بقيمة 200 مليون دولار مع البنتاغون ووضع الشركة على ما يشبه القائمة السوداء الحكومية.
تعبّر أنثروبيك عن قلقها بشأن قضيتين لا ترغب في التنازل عنهما، وفقًا لمصدر مطلع على اجتماعها مع هيجسث: الأسلحة التي يتحكم فيها الذكاء الاصطناعي والمراقبة الجماعية للمواطنين الأمريكيين. تعتقد أنثروبيك أن الذكاء الاصطناعي غير موثوق به بما يكفي لتشغيل الأسلحة، ولا توجد قوانين أو لوائح تغطي كيفية استخدام الذكاء الاصطناعي في المراقبة الجماعية، وفقًا للمصدر.
رحب باحثو الذكاء الاصطناعي بموقف أنثروبيك على وسائل التواصل الاجتماعي يوم الثلاثاء وأعربوا عن قلقهم بشأن فكرة استخدام الذكاء الاصطناعي للمراقبة الحكومية.
لطالما وضعت الشركة نفسها على أنها شركة ذكاء اصطناعي تعطي الأولوية للسلامة. نشرت أنثروبيك أبحاثًا تظهر كيف يمكن لنماذجها الخاصة من الذكاء الاصطناعي أن تكون قادرة على الابتزاز تحت ظروف معينة. كما تبرعت مؤخرًا بمبلغ 20 مليون دولار لمجموعة “Public First Action”، وهي مجموعة سياسية تدعو إلى تدابير حماية وتوعية حول الذكاء الاصطناعي.
لكن الشركة تواجه ضغطًا متزايدًا ومنافسة من الحكومة ومنافسيها. على سبيل المثال، يخطط هيجسث لاستخدام قانون الإنتاج الدفاعي ضد أنثروبيك وتصنيفها كمخاطر في سلسلة التوريد إذا لم تمتثل لمطالب البنتاغون، حسبما أفادت CNN يوم الثلاثاء. كما أن OpenAI وأنثروبيك في سباق لإطلاق أدوات ذكاء اصطناعي مؤسسية جديدة بهدف الفوز بسوق العمل.
اقترح جاريد كابلان، كبير العلماء في أنثروبيك، في مقابلة مع Time أن التغيير تم لأسباب تتعلق بالسلامة أكثر من المنافسة المتزايدة.
“شعرنا أنه لن يفيد أحدًا أن نوقف تدريب نماذج الذكاء الاصطناعي”، قال كابلان للمجلة. “لم نشعر حقًا، مع التقدم السريع للذكاء الاصطناعي، أن من المنطقي أن نلتزم بالتزامات أحادية الجانب… إذا كان المنافسون يتقدمون بسرعة.”
ساهمت هاداس جولد من CNN في إعداد هذا التقرير.
لمزيد من أخبار CNN والنشرات الإخبارية، أنشئ حسابًا على CNN.com
الشروط والخصوصية
لوحة تحكم الخصوصية
مزيد من المعلومات