** التركيز: **
① كن متيقظًا لتطوير الذكاء الاصطناعي ومنعه من الخروج عن نطاق السيطرة ، والذي أصبح "التصحيح السياسي" في مجال العلوم والتكنولوجيا في جميع أنحاء العالم ؛
② فيما يتعلق بمسألة منع الانقراض الذاتي للإنسان بشكل صارم ، يجب أن تحتل العديد من المخاطر مثل الحرب النووية وتغير المناخ وانتشار الفيروسات القاتلة وإساءة استخدام التكنولوجيا الحيوية مرتبة متقدمة على الذكاء الاصطناعي الفائق ؛
③ قد يؤدي الذكاء الاصطناعي إلى مخاطر اجتماعية مختلفة ، فقد أشارت الدائرة الأكاديمية منذ فترة طويلة إلى أنه تم أيضًا طرح العديد من الإجراءات المضادة ، والمشكلة الحالية هي تنفيذ إجراءات حوكمة الذكاء الاصطناعي وفقًا للظروف الوطنية ، وليس تعليق البحث والتطوير ؛
④ إذا لم يكن هناك ترتيب شامل للسياسة ، فإن ChatGPT سيؤدي بالتأكيد إلى عدد كبير من "بطالة الذكاء الاصطناعي" ، والتي بدورها ستعيق التطبيق الإضافي لـ ChatGPT.
المؤلف: Liu Yongmou ، أستاذ مدرسة الفلسفة ، جامعة Renmin في الصين ، باحث في الأكاديمية الوطنية للتنمية والاستراتيجية
في مارس 2023 ، وقع آلاف الخبراء ، بما في ذلك Elon Musk ، بشكل مشترك على رسالة مفتوحة تدعو إلى وقف تدريب نماذج الذكاء الاصطناعي (AI) لمتابعة GPT-4 لمدة 6 أشهر على الأقل. وبمجرد ظهور هذه الأخبار ، فجرت الشبكة العالمية ووسائل الإعلام ، وسرعان ما اجتذبت معارضة وو إندا و "خبراء الذكاء الاصطناعي" الآخرين. في النهاية ، لم تكن هناك معلومات أخرى حول هذه المسألة ، وكان يُشتبه في أن تعليق GPT-4 كان موجة من الضجيج من قبل OpenAI.
في أبريل ، أفيد أن إيطاليا ستحظر ChatGPT تمامًا ، وكانت النتيجة غرامة.
في مايو ، جاء الرئيس الأمريكي بايدن ونائب الرئيس هاريس أيضًا للانضمام إلى المرح وعقدا اجتماعات مع الرؤساء التنفيذيين لكبرى شركات الذكاء الاصطناعي Alphabet و Microsoft و OpenAI و Anthropic ، الشركة الأم لـ Google ، للضغط على الشركات لتنفيذ الإجراءات الوقائية حول الذكاء الاصطناعي. دعم اللوائح أو التشريعات الجديدة للتخفيف من الأضرار المحتملة لتقنيات الذكاء الاصطناعي.
"المسك وصديقته التي تعمل بالذكاء الاصطناعي" صنعها المستخدمون باستخدام أدوات الذكاء الاصطناعي التوليفية المصدر: الإنترنت
يبدو أن كل شيء سيأتي قريبًا. يبدو أن الذكاء الاصطناعي التوليدي (GAI ، Generated AI) الذي يمثله ChatGPT و Midjourney و DALL-E 2 قد ولّد مخاطر اجتماعية جديدة وأكثر خطورة ، مما جعل تطوير المجتمع البشري وتطبيق تكنولوجيا الذكاء الاصطناعي خضع الوضع العام لتغييرات أساسية ، ويلزم اعتماد استراتيجيات وتدابير وطرق جديدة للتعامل معها ، مثل التعليق الكامل للبحث والتطوير في تقنيات الذكاء الاصطناعي الجديدة.
هل هو حقا مثل هذا؟ لا.
أولاً ، لا ينتج عن GAI أي مخاطر جديدة ، والمشكلات التي قد تسببها تمت مناقشتها ودعوت لها منذ فترة طويلة من قبل الدائرة الأكاديمية. ثانيًا ، ليست هناك حاجة إلى طرق جديدة للتعامل مع مخاطر GAI ، فدائمًا ما كان مفتاح التعامل مع مخاطر الذكاء الاصطناعي هو التنفيذ.
في 11 أبريل ، أصدرت إدارة الفضاء الإلكتروني في الصين علنًا "إجراءات إدارة خدمة الذكاء الاصطناعي التوليدية (مسودة للتعليق)" ، استجابةً لحوكمة GAI بسرعة غير مسبوقة ، مما يثبت أن تطبيق GAI له تأثير اجتماعي ضخم ، ويجب أن يكون يجب دراستها بعناية وتنفيذها بعناية. الاستجابة بسرعة.
** 01 احذر من خروج الذكاء الاصطناعي عن السيطرة - "الصواب السياسي" في مجال التكنولوجيا العالمية **
مشكلة البطالة ، أي أنها قد تؤدي إلى عدد كبير من بطالة العاملين العقليين مثل مخططي كتابة النصوص والفنانين الأصليين والمصممين الصناعيين والمبرمجين والإعلاميين والمترجمين.
القضايا التعليمية ، أي أنها قد تؤثر على نظام التعليم والبحث العلمي الحالي ، على سبيل المثال ، يمكن للطلاب استخدام ChatGPT بدلاً من أداء واجباتهم المدرسية.
قضايا أمن المعلومات ، أي أن GAI تنشئ تلقائيًا قدرًا كبيرًا من محتوى إنتاج الذكاء الاصطناعي (AIGC ، المحتوى الذي يتم إنشاؤه بواسطة AI) ، والذي يصعب التمييز بين الأصالة والخطأ ، والمواقف المشبوهة ، والملكية غير الواضحة ، والمساءلة الصعبة. حتى تصبح تحديا للقيم السائدة وأداة خطيرة إيديولوجية.
لطالما تم تقييم مخاطر الذكاء الاصطناعي من قبل الحكومات في مختلف البلدان ، وأصبحت محط اهتمام المجتمع بأسره في السنوات الأخيرة. من الواضح أن التأثيرات الثلاثة الرئيسية التي تسببها GAI المذكورة أعلاه ليست مشاكل جديدة ، وقد تم الاهتمام بها ودراستها من قبل الدوائر الأكاديمية والحكومة في وقت مبكر من انفجار ChatGPT.
في السنوات العشر الماضية ، من إنترنت الأشياء إلى البيانات الضخمة ، والحوسبة السحابية ، و blockchain ، و Metaverse ، و ChatGPT ، من بين موجات انتعاش الذكاء الاصطناعي ، لم يكن هناك أبدًا نقص في الأصوات التي تولي اهتمامًا للمخاطر.
أنا قلق مهنيًا بشأن التأثير الاجتماعي للتقنيات الجديدة ، وقد بذلت الكثير من الطاقة لتذكير الجميع بالمخاطر التقنية التي قد يسببها الذكاء الاصطناعي. على سبيل المثال ، كتب دراسات "النظرية العامة لحوكمة التكنولوجيا" ، و "إنترنت الأشياء ومجيء المجتمع في كل مكان" ، و "ليس لدي دواء لمرض التكنولوجيا" ، و "Metaverse Trap" ، و "Fourteen Lectures on Science and Technology and المجتمع "، لتذكير غير المتخصصين بتكنولوجيا المعلومات والاتصالات (الآثار الاجتماعية والمخاطر التكنولوجية لتكنولوجيا المعلومات والاتصالات).
يمكن القول أن اليقظة ضد تطوير الذكاء الاصطناعي ومنع الذكاء الاصطناعي من الخروج عن نطاق السيطرة أصبح "التصحيح السياسي" في مجال العلوم والتكنولوجيا في جميع أنحاء العالم. في ظل هذا الجو ، تم قمع الأصوات التي أعلنت علنًا أن "منظمة العفو الدولية ليس لها مناطق محظورة" إلى حد كبير. في هذا الصدد ، بصفتي أحد أصحاب نظرية الاختيار للتحكم التكنولوجي ، أتفق تمامًا.
بقدر ما يتعلق الأمر بحالة التنمية الحالية ، ما هي المخاطر الجسيمة التي يواجهها ChatGPT والتي يجب التعامل معها بطريقة "زيادة الوزن" ، مثل التعليق لمدة ستة أشهر على الأقل؟
يقول بعض الناس أن ChatGPT هو علامة على ظهور الذكاء الاصطناعي الفائق. إذا لم يتم إيقافه الآن (ملاحظة: إنه ليس مجرد تعليق) ، بمجرد فتح "Pandora's Box" ، سيتم الحكم على البشر أو حتى انقراضهم قريبًا بواسطة Super AI. من الصعب على الناس أن يأخذوا مثل هذه الأفكار الخيالية بجدية. على وجه الخصوص ، لا يدرك العديد من المحترفين أن ChatGPT هو ذكاء اصطناعي عام ، ناهيك عن نموذج أولي للذكاء الاصطناعي الفائق.
قد يكون الذكاء الاصطناعي الفائق مشكلة ، ولكن عندما يتعلق الأمر بمنع انقراض الإنسان الذاتي ، يجب أن يتم تصنيف العديد من المخاطر ، مثل الحرب النووية ، وتغير المناخ ، وانتشار الفيروسات القاتلة ، وإساءة استخدام التكنولوجيا الحيوية ، على الذكاء الاصطناعي الفائق. هل نوقفهم جميعًا أولاً؟ حتى إذا كان لا يمكن إيقافه ، فلا بأس من التوقف مؤقتًا ، على الأقل يمكنك طلب وقفة.
بما أنه لا يوجد شيء جديد ، فلا داعي لاتخاذ نهج صارم لإيقاف التنمية مؤقتًا ، لماذا؟
أولا ، التعليق غير مبرر. يقول بعض الناس أن تدابير الاستجابة للمخاطر ChatGPT لم يتم التفكير فيها بوضوح ، لذلك تم تعليقها أولاً. خطأ! ليس الأمر أنني لم أفكر بوضوح ، لكنني لم أقم بتطبيقه في مكانه.
ثانيًا ، من المستحيل تحقيق الوقف ، وستكون هناك بالتأكيد شركات ذكاء اصطناعي تنتهك الحظر ، وستكون النتيجة منافسة غير عادلة.
ثالثًا ، لن يحل التعليق المشكلة. حتى لو أوقفت جميع شركات الذكاء الاصطناعي بالفعل أبحاث GAI ، فهل سيتم حل مشكلة المخاطر؟ لا! ما لم يتم إيقاف وحظر LLMs (نماذج اللغات الكبيرة ، نموذج اللغة الكبير) تمامًا ، فلن يختفي الخطر. عند إعادة التشغيل ، لا يزال يتعين عليك مواجهة المخاطر وجهاً لوجه.
اليوم ، تعد التكنولوجيا الجديدة أهم أداة لبقاء الإنسان وتنميته التي لا يمكن تركها وراء الركب. تم الكشف بوضوح عن دور GAI في تعزيز الإنتاجية الاجتماعية ، فلماذا نتوقف عن الأكل بسبب الاختناق ، ولماذا لا يمكننا استخدامه بطريقة مسيطر عليها؟
في القرن العشرين ، اقترح بعض الناس أن التكنولوجيا في ذلك الوقت كانت كافية للبشر ، وأن التطور المستمر سيؤدي إلى العديد من المشاكل الجديدة ، يجب إيقاف التكنولوجيا ، ويجب على العلماء التوقف عن إجراء البحوث. لم يتم أخذ مثل هذه الأفكار غير العقلانية على محمل الجد من قبل المجتمع.
** 02 لا يمكن تعليق البحث والتطوير في GAI ، فهو غير صالح تمامًا "مسدس الفم" **
قد يؤدي الذكاء الاصطناعي إلى مخاطر اجتماعية مختلفة ، وقد أشارت الدائرة الأكاديمية منذ فترة طويلة إلى أنه تم أيضًا طرح العديد من الإجراءات المضادة. لذلك ، فإن السؤال الآن هو تنفيذ إجراءات حوكمة الذكاء الاصطناعي وفقًا للظروف الوطنية ، وليس تعليق البحث والتطوير في الذكاء الاصطناعي. لقد أثبتت الوقائع أن فكرة تعليق البحث والتطوير في GAI هي فكرة بسيطة ووقحة ، وذات تأثير ضئيل ومن المستحيل تحقيقها ، وهي فكرة غير صالحة تمامًا.
خذ مشكلة البطالة في مجال الذكاء الاصطناعي كمثال. تعد مشكلة البطالة في مجال الذكاء الاصطناعي ، أي تقدم الذكاء الاصطناعي مصحوبًا بفقدان المزيد والمزيد من الأشخاص لوظائفهم ، وهي أكبر مشكلة في التأثير الاجتماعي للذكاء الاصطناعي ، وتنطوي على ابتكار مؤسسي شامل للمجتمع بأسره. تناقش الأدبيات الحالية قضية البطالة في مجال الذكاء الاصطناعي ، والتي يمكن وصفها بأنها ساحقة ، وهناك العديد من الإجراءات المضادة المحددة ، مثل التخطيط الوظيفي للطلاب ، وتحسين معرفة القراءة والكتابة للعمال بالذكاء الاصطناعي ، والضمان الاجتماعي ، وإعادة توظيف العاطلين عن العمل ، والارتقاء والتحول. الهيكل الصناعي ، إلخ.
يعد التخطيط الاستراتيجي طويل الأجل مثيرًا للإعجاب أيضًا ، مثل التقليل المنهجي لساعات عمل العمال (تحاول بعض الأماكن بالفعل العمل 4 أيام في الأسبوع) ، وجمع ضرائب الذكاء الاصطناعي (الذكاء الاصطناعي هو تبلور الذكاء البشري ، وتفرض ضرائب كبيرة على شركات الذكاء الاصطناعي. لجميع الأشخاص للمشاركة) ، نظام تقاعد مرن (يمكن للعمال التقاعد لفترة وجيزة عدة مرات في حياتهم) ، إلخ.
يكمن التأثير الأكبر لتطبيقات الذكاء الاصطناعي على أنشطة الحوكمة المعاصرة في: توسيع الحرية الاقتصادية ، وزيادة وقت الفراغ ، وتغيير المتطلبات الأساسية للحوكمة العامة بشكل كبير ، وبالتالي تغيير المظهر الأساسي للعمليات الاجتماعية. ومع ذلك ، فإن هذا التأثير يعني أيضًا أن "مشكلة البطالة في مجال الذكاء الاصطناعي" أصبحت أكثر خطورة ، مما يشكل تحديات خطيرة لأنشطة الحوكمة في المجتمع بأسره ويجب التعامل معها بحكمة. سوف يثبت تصنيع AIGC مرة أخرى مدى خطورة مشكلة البطالة في مجال الذكاء الاصطناعي. إذا لم يكن هناك ترتيب شامل للسياسة ، فإن ChatGPT سيؤدي بالتأكيد إلى عدد كبير من "بطالة الذكاء الاصطناعي" ، والتي بدورها ستعيق التطبيق الإضافي لـ ChatGPT.
يجب أن يأخذ حل "مشكلة البطالة في مجال الذكاء الاصطناعي" المنظور والواقع في الاعتبار.
من منظور طويل الأجل ، يتضمن حل "مشكلة البطالة في الذكاء الاصطناعي" تغييرًا جوهريًا في النظام الاجتماعي البشري ، ولا يمكن حلها إلا من خلال تطوير التكنولوجيا الذكية والحوكمة الذكية. وفقًا للمبادئ الأساسية للماركسية ، تعكس "مشكلة البطالة في الذكاء الاصطناعي" التناقض بين تطور الإنتاجية العلمية والتكنولوجية وعلاقات الإنتاج القائمة. إن قدرة الروبوتات على استبدال العمل البشري لا تعني أنها تحل محل العمل البشري بالفعل ، لأن هذا الاستبدال يعني إلغاء النظام الاستغلالي الذي يجبر فيه القليل من الناس غالبية الناس على العمل من خلال الترتيبات المؤسسية. من حيث الجوهر ، لحل "مشكلة البطالة في مجال الذكاء الاصطناعي" ، يجب علينا باستمرار تقليل ساعات عمل العمال ، وإعطاء الناس مزيدًا من وقت الفراغ ، وفي النهاية يجب القضاء تمامًا على نظام الاستغلال. يوضح تاريخ العمل في القرن العشرين أن تطبيق التكنولوجيا الحديثة في الإنتاج يستمر في تقليل إجمالي وقت العمل اللازم للمجتمع ، ويعزز تطبيق "نظام العمل لمدة ثماني ساعات" و "نظام عطلة نهاية الأسبوع" من قبل المزيد والمزيد من البلدان .
من وجهة نظر الواقع ، فإن تطور النظام الاجتماعي يستغرق وقتًا طويلاً ، ويجب تطويره بشكل تدريجي وثابت ، كما يجب انتظار التطوير المستمر للتكنولوجيا الذكية ، لذلك فإن الأمر الأكثر إلحاحًا هو إيجاد وظائف جديدة للعمال الذين تأثروا بالذكاء الاصطناعي ، والتأكد من تمتعهم بالثروة المادية الناتجة عن التقدم التكنولوجي.
لذلك ، في بداية اندلاع تصنيع AIGC ، يجب على الدولة والحكومة والمجتمع إجراء بحث متعمق ، ووضع خطط شاملة ، والاستجابة بفاعلية لضغوط البطالة والتوظيف التي قد تنشأ.
على سبيل المثال ، تحسين التأمين ضد البطالة وتقديم خدمات التدريب على إعادة التوظيف ، وتعزيز التخطيط الوظيفي وتحسين الجودة الإبداعي للشباب ، وتعديل اتجاه المواهب المدرسية ، لا سيما في العلوم الإنسانية والفنون وغيرها من التخصصات ، وتعزيز الترقية الصناعية بشكل غير صحيح لخلق وظائف جديدة. باختصار ، في مواجهة مخاطر البطالة التي قد يصاحبها الذكاء الاصطناعي ، يجب أن نتخلى عن التفكير المتطرف إما ، أو نحاول تجنبه ، وتعديله في الوقت الفعلي.
** 03 كيف يُحكم الذكاء الاصطناعي في الصين؟ **
يعد بناء الصين الرقمية محركًا مهمًا لتعزيز التحديث على الطراز الصيني في العصر الرقمي ، وهو دعم قوي لبناء مزايا جديدة في المنافسة الوطنية.
في بناء الصين الرقمية ، من الضروري تعزيز حوكمة الذكاء الاصطناعي "المرتكزة على الناس" حتى يمكن للذكاء الاصطناعي أن يفيد المجتمع حقًا. ولهذه الغاية ، يجب أولاً دعوة المجتمع بأسره إلى الاهتمام بقضية مخاطر الذكاء الاصطناعي.حيث تقوم الحكومة والشركات والمنظمات غير الحكومية والدوائر العلمية والتكنولوجية والجمهور ، وفقًا لتقسيم المسؤوليات ، بتحسين السياسات والتدابير ، تعزيز تكامل الموارد وتنسيق القوة ، وتشكيل قوة عمل مشتركة للسيطرة على مخاطر الذكاء الاصطناعي ، ويجري تنفيذ البرامج بالفعل.
بالإضافة إلى ذلك ، يمكن أيضًا مراعاة الاقتراحات المبدئية التالية عند إدارة مخاطر الذكاء الاصطناعي:
أولاً ، تنفيذ مبدأ الأدوات المحدودة. يجب أن يكون لدينا فهم واضح لدور الحكم الذكي - الحكم الذكي ليس "سلاحًا مثاليًا" لجميع الأمراض ، وفي كثير من الحالات سيكون أيضًا "فشلًا" ، بل ويذهب إلى الجانب الآخر من إعاقة الكفاءة الاجتماعية. لذلك من الضروري الاعتراف بدور التكنولوجيا الذكية في تحسين كفاءة الحوكمة في مجالات معينة ، ومشكلات معينة ، ومناسبات معينة ، وإعطاء الأولوية لوسائل الحوكمة الفنية لحل المشكلات ، مع مراعاة الدور المحدود للتقنية الذكية دائمًا. . التزم بتواضع العلم والتكنولوجيا ، واحترس من "خرافات البيانات الضخمة" ، واعتماد موقف مراجعة لسياق محدد وتحليل محدد ، وانتبه للتغذية الراجعة للتأثير الفعلي ومراقبة المخاطر لأنشطة الحوكمة.
ثانيًا ، الإصرار على التركيز المتساوي على الاستخدام والسيطرة. من الضروري لعب دور الحوكمة الذكية ، ولكن أيضًا للتحكم في إدارة ذكية محددة لمنع قوة المنصات الذكية وخبراء الحوكمة التقنية من الخروج عن نطاق السيطرة. في الوقت نفسه ، يجب استخدام الأساليب المؤسسية التقنية لتجنب المخاطر الاجتماعية التي قد تكون ناجمة عن الحوكمة الذكية.
ثالثًا ، التعامل بشكل صحيح مع "مشكلة البطالة في مجال الذكاء الاصطناعي". يكمن التأثير الأكبر لتطبيق التكنولوجيا الذكية على أنشطة الحوكمة المعاصرة في: توسيع الحرية الاقتصادية ، وزيادة وقت الفراغ ، وتغيير متطلبات الحوكمة العامة بشكل كبير ، وبالتالي تغيير المظهر الأساسي للعملية الاجتماعية. ومع ذلك ، فإن هذا التأثير يعني أيضًا أن "مشكلة البطالة في الذكاء الاصطناعي" أصبحت أكثر خطورة ، مما يشكل تحديات خطيرة لأنشطة الحوكمة في المجتمع بأسره ، وتجذب انتباه المجتمع بأسره ، ويجب التعامل معها بحكمة.
رابعًا ، التكامل الوثيق بين بناء "المدينة الذكية" و "القرية الرقمية". تعد إدارة المدينة علميًا إجراءً استراتيجيًا مهمًا لإدارة التكنولوجيا المعاصرة ، والمدينة الذكية هي شكل متقدم من أشكال المدينة العلمية. نظرًا لأن البشر يعيشون حاليًا بشكل رئيسي في المدن ، لا سيما المدن الكبيرة والكبيرة جدًا ، يتم الترويج للإدارة الذكية الحالية بشكل أساسي حول بناء "المدن الذكية" ، أو بناء "المدن الذكية" باعتبارها الناقل الرئيسي. على وجه الخصوص ، لا يمكن أن يتجاهل بناء الصين الرقمية بناء القرى الرقمية ، ويجب بذل الجهود لتضييق الفجوة بين المناطق الحضرية والريفية من خلال الرقمنة.
خامسًا ، انتبه إلى تكامل التكنولوجيا الذكية والأشخاص. في أنشطة الحوكمة التكنولوجية ، كلما كان الجمع بين التكنولوجيا والأفراد أفضل ، زادت كفاءة الحوكمة. لتعزيز تكامل العوامل البشرية والتقنية في أنشطة الحوكمة الذكية ، من الضروري التفكير بشكل منهجي في خصائص مختلف التقنيات الذكية والأخلاقيات والقوانين وعلم النفس وإدارة الأزمات وما إلى ذلك ، لتعزيز بناء النظام والبحث التكنولوجي والتطوير ، واحتياطيات المواهب ، وتعزيز القيادة التنظيمية ، واستشارات الخبراء والتدريبات القتالية الفعلية ، وتحسين قدرات الحوكمة الذكية للصين بشكل مستمر ومنهجي.
سادساً ، ميز الحكم عن التلاعب في سياقات محددة. هناك حد للحكم الذكي ، وإذا تجاوز الحد ، يصبح تلاعبًا ذكيًا وينتهك الحقوق الأساسية للمواطنين. إن التطوير المستقبلي للحكم الذكي يجب أن يأخذ بعين الاعتبار على وجه التحديد حدود التطبيقات المختلفة. وهذا لا يشمل فقط أهداف الحوكمة ، ولكن أيضًا الوسائل المستخدمة ، ويمكن مراجعته فقط بهدوء وموضوعية وحذر في سياق اجتماعي محدد. لمنع الحوكمة الذكية من التحرك نحو التلاعب الذكي ، فإن القضية المهمة للغاية هي أنه يجب التسامح إلى حد ما مع السلوك المناهض للحكم للحكم الذكي.
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
هل يدعو ماسك إلى وقف تطوير الذكاء الاصطناعي ليكون بمثابة "صنبور"؟
المؤلف: Liu Yongmou ، أستاذ مدرسة الفلسفة ، جامعة Renmin في الصين ، باحث في الأكاديمية الوطنية للتنمية والاستراتيجية
في مارس 2023 ، وقع آلاف الخبراء ، بما في ذلك Elon Musk ، بشكل مشترك على رسالة مفتوحة تدعو إلى وقف تدريب نماذج الذكاء الاصطناعي (AI) لمتابعة GPT-4 لمدة 6 أشهر على الأقل. وبمجرد ظهور هذه الأخبار ، فجرت الشبكة العالمية ووسائل الإعلام ، وسرعان ما اجتذبت معارضة وو إندا و "خبراء الذكاء الاصطناعي" الآخرين. في النهاية ، لم تكن هناك معلومات أخرى حول هذه المسألة ، وكان يُشتبه في أن تعليق GPT-4 كان موجة من الضجيج من قبل OpenAI.
في أبريل ، أفيد أن إيطاليا ستحظر ChatGPT تمامًا ، وكانت النتيجة غرامة.
في مايو ، جاء الرئيس الأمريكي بايدن ونائب الرئيس هاريس أيضًا للانضمام إلى المرح وعقدا اجتماعات مع الرؤساء التنفيذيين لكبرى شركات الذكاء الاصطناعي Alphabet و Microsoft و OpenAI و Anthropic ، الشركة الأم لـ Google ، للضغط على الشركات لتنفيذ الإجراءات الوقائية حول الذكاء الاصطناعي. دعم اللوائح أو التشريعات الجديدة للتخفيف من الأضرار المحتملة لتقنيات الذكاء الاصطناعي.
يبدو أن كل شيء سيأتي قريبًا. يبدو أن الذكاء الاصطناعي التوليدي (GAI ، Generated AI) الذي يمثله ChatGPT و Midjourney و DALL-E 2 قد ولّد مخاطر اجتماعية جديدة وأكثر خطورة ، مما جعل تطوير المجتمع البشري وتطبيق تكنولوجيا الذكاء الاصطناعي خضع الوضع العام لتغييرات أساسية ، ويلزم اعتماد استراتيجيات وتدابير وطرق جديدة للتعامل معها ، مثل التعليق الكامل للبحث والتطوير في تقنيات الذكاء الاصطناعي الجديدة.
هل هو حقا مثل هذا؟ لا.
أولاً ، لا ينتج عن GAI أي مخاطر جديدة ، والمشكلات التي قد تسببها تمت مناقشتها ودعوت لها منذ فترة طويلة من قبل الدائرة الأكاديمية. ثانيًا ، ليست هناك حاجة إلى طرق جديدة للتعامل مع مخاطر GAI ، فدائمًا ما كان مفتاح التعامل مع مخاطر الذكاء الاصطناعي هو التنفيذ.
في 11 أبريل ، أصدرت إدارة الفضاء الإلكتروني في الصين علنًا "إجراءات إدارة خدمة الذكاء الاصطناعي التوليدية (مسودة للتعليق)" ، استجابةً لحوكمة GAI بسرعة غير مسبوقة ، مما يثبت أن تطبيق GAI له تأثير اجتماعي ضخم ، ويجب أن يكون يجب دراستها بعناية وتنفيذها بعناية. الاستجابة بسرعة.
** 01 احذر من خروج الذكاء الاصطناعي عن السيطرة - "الصواب السياسي" في مجال التكنولوجيا العالمية **
مشكلة البطالة ، أي أنها قد تؤدي إلى عدد كبير من بطالة العاملين العقليين مثل مخططي كتابة النصوص والفنانين الأصليين والمصممين الصناعيين والمبرمجين والإعلاميين والمترجمين.
القضايا التعليمية ، أي أنها قد تؤثر على نظام التعليم والبحث العلمي الحالي ، على سبيل المثال ، يمكن للطلاب استخدام ChatGPT بدلاً من أداء واجباتهم المدرسية.
قضايا أمن المعلومات ، أي أن GAI تنشئ تلقائيًا قدرًا كبيرًا من محتوى إنتاج الذكاء الاصطناعي (AIGC ، المحتوى الذي يتم إنشاؤه بواسطة AI) ، والذي يصعب التمييز بين الأصالة والخطأ ، والمواقف المشبوهة ، والملكية غير الواضحة ، والمساءلة الصعبة. حتى تصبح تحديا للقيم السائدة وأداة خطيرة إيديولوجية.
لطالما تم تقييم مخاطر الذكاء الاصطناعي من قبل الحكومات في مختلف البلدان ، وأصبحت محط اهتمام المجتمع بأسره في السنوات الأخيرة. من الواضح أن التأثيرات الثلاثة الرئيسية التي تسببها GAI المذكورة أعلاه ليست مشاكل جديدة ، وقد تم الاهتمام بها ودراستها من قبل الدوائر الأكاديمية والحكومة في وقت مبكر من انفجار ChatGPT.
في السنوات العشر الماضية ، من إنترنت الأشياء إلى البيانات الضخمة ، والحوسبة السحابية ، و blockchain ، و Metaverse ، و ChatGPT ، من بين موجات انتعاش الذكاء الاصطناعي ، لم يكن هناك أبدًا نقص في الأصوات التي تولي اهتمامًا للمخاطر.
أنا قلق مهنيًا بشأن التأثير الاجتماعي للتقنيات الجديدة ، وقد بذلت الكثير من الطاقة لتذكير الجميع بالمخاطر التقنية التي قد يسببها الذكاء الاصطناعي. على سبيل المثال ، كتب دراسات "النظرية العامة لحوكمة التكنولوجيا" ، و "إنترنت الأشياء ومجيء المجتمع في كل مكان" ، و "ليس لدي دواء لمرض التكنولوجيا" ، و "Metaverse Trap" ، و "Fourteen Lectures on Science and Technology and المجتمع "، لتذكير غير المتخصصين بتكنولوجيا المعلومات والاتصالات (الآثار الاجتماعية والمخاطر التكنولوجية لتكنولوجيا المعلومات والاتصالات).
يمكن القول أن اليقظة ضد تطوير الذكاء الاصطناعي ومنع الذكاء الاصطناعي من الخروج عن نطاق السيطرة أصبح "التصحيح السياسي" في مجال العلوم والتكنولوجيا في جميع أنحاء العالم. في ظل هذا الجو ، تم قمع الأصوات التي أعلنت علنًا أن "منظمة العفو الدولية ليس لها مناطق محظورة" إلى حد كبير. في هذا الصدد ، بصفتي أحد أصحاب نظرية الاختيار للتحكم التكنولوجي ، أتفق تمامًا.
بقدر ما يتعلق الأمر بحالة التنمية الحالية ، ما هي المخاطر الجسيمة التي يواجهها ChatGPT والتي يجب التعامل معها بطريقة "زيادة الوزن" ، مثل التعليق لمدة ستة أشهر على الأقل؟
يقول بعض الناس أن ChatGPT هو علامة على ظهور الذكاء الاصطناعي الفائق. إذا لم يتم إيقافه الآن (ملاحظة: إنه ليس مجرد تعليق) ، بمجرد فتح "Pandora's Box" ، سيتم الحكم على البشر أو حتى انقراضهم قريبًا بواسطة Super AI. من الصعب على الناس أن يأخذوا مثل هذه الأفكار الخيالية بجدية. على وجه الخصوص ، لا يدرك العديد من المحترفين أن ChatGPT هو ذكاء اصطناعي عام ، ناهيك عن نموذج أولي للذكاء الاصطناعي الفائق.
قد يكون الذكاء الاصطناعي الفائق مشكلة ، ولكن عندما يتعلق الأمر بمنع انقراض الإنسان الذاتي ، يجب أن يتم تصنيف العديد من المخاطر ، مثل الحرب النووية ، وتغير المناخ ، وانتشار الفيروسات القاتلة ، وإساءة استخدام التكنولوجيا الحيوية ، على الذكاء الاصطناعي الفائق. هل نوقفهم جميعًا أولاً؟ حتى إذا كان لا يمكن إيقافه ، فلا بأس من التوقف مؤقتًا ، على الأقل يمكنك طلب وقفة.
بما أنه لا يوجد شيء جديد ، فلا داعي لاتخاذ نهج صارم لإيقاف التنمية مؤقتًا ، لماذا؟
أولا ، التعليق غير مبرر. يقول بعض الناس أن تدابير الاستجابة للمخاطر ChatGPT لم يتم التفكير فيها بوضوح ، لذلك تم تعليقها أولاً. خطأ! ليس الأمر أنني لم أفكر بوضوح ، لكنني لم أقم بتطبيقه في مكانه.
ثانيًا ، من المستحيل تحقيق الوقف ، وستكون هناك بالتأكيد شركات ذكاء اصطناعي تنتهك الحظر ، وستكون النتيجة منافسة غير عادلة.
ثالثًا ، لن يحل التعليق المشكلة. حتى لو أوقفت جميع شركات الذكاء الاصطناعي بالفعل أبحاث GAI ، فهل سيتم حل مشكلة المخاطر؟ لا! ما لم يتم إيقاف وحظر LLMs (نماذج اللغات الكبيرة ، نموذج اللغة الكبير) تمامًا ، فلن يختفي الخطر. عند إعادة التشغيل ، لا يزال يتعين عليك مواجهة المخاطر وجهاً لوجه.
اليوم ، تعد التكنولوجيا الجديدة أهم أداة لبقاء الإنسان وتنميته التي لا يمكن تركها وراء الركب. تم الكشف بوضوح عن دور GAI في تعزيز الإنتاجية الاجتماعية ، فلماذا نتوقف عن الأكل بسبب الاختناق ، ولماذا لا يمكننا استخدامه بطريقة مسيطر عليها؟
في القرن العشرين ، اقترح بعض الناس أن التكنولوجيا في ذلك الوقت كانت كافية للبشر ، وأن التطور المستمر سيؤدي إلى العديد من المشاكل الجديدة ، يجب إيقاف التكنولوجيا ، ويجب على العلماء التوقف عن إجراء البحوث. لم يتم أخذ مثل هذه الأفكار غير العقلانية على محمل الجد من قبل المجتمع.
** 02 لا يمكن تعليق البحث والتطوير في GAI ، فهو غير صالح تمامًا "مسدس الفم" **
قد يؤدي الذكاء الاصطناعي إلى مخاطر اجتماعية مختلفة ، وقد أشارت الدائرة الأكاديمية منذ فترة طويلة إلى أنه تم أيضًا طرح العديد من الإجراءات المضادة. لذلك ، فإن السؤال الآن هو تنفيذ إجراءات حوكمة الذكاء الاصطناعي وفقًا للظروف الوطنية ، وليس تعليق البحث والتطوير في الذكاء الاصطناعي. لقد أثبتت الوقائع أن فكرة تعليق البحث والتطوير في GAI هي فكرة بسيطة ووقحة ، وذات تأثير ضئيل ومن المستحيل تحقيقها ، وهي فكرة غير صالحة تمامًا.
خذ مشكلة البطالة في مجال الذكاء الاصطناعي كمثال. تعد مشكلة البطالة في مجال الذكاء الاصطناعي ، أي تقدم الذكاء الاصطناعي مصحوبًا بفقدان المزيد والمزيد من الأشخاص لوظائفهم ، وهي أكبر مشكلة في التأثير الاجتماعي للذكاء الاصطناعي ، وتنطوي على ابتكار مؤسسي شامل للمجتمع بأسره. تناقش الأدبيات الحالية قضية البطالة في مجال الذكاء الاصطناعي ، والتي يمكن وصفها بأنها ساحقة ، وهناك العديد من الإجراءات المضادة المحددة ، مثل التخطيط الوظيفي للطلاب ، وتحسين معرفة القراءة والكتابة للعمال بالذكاء الاصطناعي ، والضمان الاجتماعي ، وإعادة توظيف العاطلين عن العمل ، والارتقاء والتحول. الهيكل الصناعي ، إلخ.
يعد التخطيط الاستراتيجي طويل الأجل مثيرًا للإعجاب أيضًا ، مثل التقليل المنهجي لساعات عمل العمال (تحاول بعض الأماكن بالفعل العمل 4 أيام في الأسبوع) ، وجمع ضرائب الذكاء الاصطناعي (الذكاء الاصطناعي هو تبلور الذكاء البشري ، وتفرض ضرائب كبيرة على شركات الذكاء الاصطناعي. لجميع الأشخاص للمشاركة) ، نظام تقاعد مرن (يمكن للعمال التقاعد لفترة وجيزة عدة مرات في حياتهم) ، إلخ.
يكمن التأثير الأكبر لتطبيقات الذكاء الاصطناعي على أنشطة الحوكمة المعاصرة في: توسيع الحرية الاقتصادية ، وزيادة وقت الفراغ ، وتغيير المتطلبات الأساسية للحوكمة العامة بشكل كبير ، وبالتالي تغيير المظهر الأساسي للعمليات الاجتماعية. ومع ذلك ، فإن هذا التأثير يعني أيضًا أن "مشكلة البطالة في مجال الذكاء الاصطناعي" أصبحت أكثر خطورة ، مما يشكل تحديات خطيرة لأنشطة الحوكمة في المجتمع بأسره ويجب التعامل معها بحكمة. سوف يثبت تصنيع AIGC مرة أخرى مدى خطورة مشكلة البطالة في مجال الذكاء الاصطناعي. إذا لم يكن هناك ترتيب شامل للسياسة ، فإن ChatGPT سيؤدي بالتأكيد إلى عدد كبير من "بطالة الذكاء الاصطناعي" ، والتي بدورها ستعيق التطبيق الإضافي لـ ChatGPT.
يجب أن يأخذ حل "مشكلة البطالة في مجال الذكاء الاصطناعي" المنظور والواقع في الاعتبار.
من منظور طويل الأجل ، يتضمن حل "مشكلة البطالة في الذكاء الاصطناعي" تغييرًا جوهريًا في النظام الاجتماعي البشري ، ولا يمكن حلها إلا من خلال تطوير التكنولوجيا الذكية والحوكمة الذكية. وفقًا للمبادئ الأساسية للماركسية ، تعكس "مشكلة البطالة في الذكاء الاصطناعي" التناقض بين تطور الإنتاجية العلمية والتكنولوجية وعلاقات الإنتاج القائمة. إن قدرة الروبوتات على استبدال العمل البشري لا تعني أنها تحل محل العمل البشري بالفعل ، لأن هذا الاستبدال يعني إلغاء النظام الاستغلالي الذي يجبر فيه القليل من الناس غالبية الناس على العمل من خلال الترتيبات المؤسسية. من حيث الجوهر ، لحل "مشكلة البطالة في مجال الذكاء الاصطناعي" ، يجب علينا باستمرار تقليل ساعات عمل العمال ، وإعطاء الناس مزيدًا من وقت الفراغ ، وفي النهاية يجب القضاء تمامًا على نظام الاستغلال. يوضح تاريخ العمل في القرن العشرين أن تطبيق التكنولوجيا الحديثة في الإنتاج يستمر في تقليل إجمالي وقت العمل اللازم للمجتمع ، ويعزز تطبيق "نظام العمل لمدة ثماني ساعات" و "نظام عطلة نهاية الأسبوع" من قبل المزيد والمزيد من البلدان .
من وجهة نظر الواقع ، فإن تطور النظام الاجتماعي يستغرق وقتًا طويلاً ، ويجب تطويره بشكل تدريجي وثابت ، كما يجب انتظار التطوير المستمر للتكنولوجيا الذكية ، لذلك فإن الأمر الأكثر إلحاحًا هو إيجاد وظائف جديدة للعمال الذين تأثروا بالذكاء الاصطناعي ، والتأكد من تمتعهم بالثروة المادية الناتجة عن التقدم التكنولوجي.
لذلك ، في بداية اندلاع تصنيع AIGC ، يجب على الدولة والحكومة والمجتمع إجراء بحث متعمق ، ووضع خطط شاملة ، والاستجابة بفاعلية لضغوط البطالة والتوظيف التي قد تنشأ.
على سبيل المثال ، تحسين التأمين ضد البطالة وتقديم خدمات التدريب على إعادة التوظيف ، وتعزيز التخطيط الوظيفي وتحسين الجودة الإبداعي للشباب ، وتعديل اتجاه المواهب المدرسية ، لا سيما في العلوم الإنسانية والفنون وغيرها من التخصصات ، وتعزيز الترقية الصناعية بشكل غير صحيح لخلق وظائف جديدة. باختصار ، في مواجهة مخاطر البطالة التي قد يصاحبها الذكاء الاصطناعي ، يجب أن نتخلى عن التفكير المتطرف إما ، أو نحاول تجنبه ، وتعديله في الوقت الفعلي.
** 03 كيف يُحكم الذكاء الاصطناعي في الصين؟ **
يعد بناء الصين الرقمية محركًا مهمًا لتعزيز التحديث على الطراز الصيني في العصر الرقمي ، وهو دعم قوي لبناء مزايا جديدة في المنافسة الوطنية.
في بناء الصين الرقمية ، من الضروري تعزيز حوكمة الذكاء الاصطناعي "المرتكزة على الناس" حتى يمكن للذكاء الاصطناعي أن يفيد المجتمع حقًا. ولهذه الغاية ، يجب أولاً دعوة المجتمع بأسره إلى الاهتمام بقضية مخاطر الذكاء الاصطناعي.حيث تقوم الحكومة والشركات والمنظمات غير الحكومية والدوائر العلمية والتكنولوجية والجمهور ، وفقًا لتقسيم المسؤوليات ، بتحسين السياسات والتدابير ، تعزيز تكامل الموارد وتنسيق القوة ، وتشكيل قوة عمل مشتركة للسيطرة على مخاطر الذكاء الاصطناعي ، ويجري تنفيذ البرامج بالفعل.
بالإضافة إلى ذلك ، يمكن أيضًا مراعاة الاقتراحات المبدئية التالية عند إدارة مخاطر الذكاء الاصطناعي:
أولاً ، تنفيذ مبدأ الأدوات المحدودة. يجب أن يكون لدينا فهم واضح لدور الحكم الذكي - الحكم الذكي ليس "سلاحًا مثاليًا" لجميع الأمراض ، وفي كثير من الحالات سيكون أيضًا "فشلًا" ، بل ويذهب إلى الجانب الآخر من إعاقة الكفاءة الاجتماعية. لذلك من الضروري الاعتراف بدور التكنولوجيا الذكية في تحسين كفاءة الحوكمة في مجالات معينة ، ومشكلات معينة ، ومناسبات معينة ، وإعطاء الأولوية لوسائل الحوكمة الفنية لحل المشكلات ، مع مراعاة الدور المحدود للتقنية الذكية دائمًا. . التزم بتواضع العلم والتكنولوجيا ، واحترس من "خرافات البيانات الضخمة" ، واعتماد موقف مراجعة لسياق محدد وتحليل محدد ، وانتبه للتغذية الراجعة للتأثير الفعلي ومراقبة المخاطر لأنشطة الحوكمة.
ثانيًا ، الإصرار على التركيز المتساوي على الاستخدام والسيطرة. من الضروري لعب دور الحوكمة الذكية ، ولكن أيضًا للتحكم في إدارة ذكية محددة لمنع قوة المنصات الذكية وخبراء الحوكمة التقنية من الخروج عن نطاق السيطرة. في الوقت نفسه ، يجب استخدام الأساليب المؤسسية التقنية لتجنب المخاطر الاجتماعية التي قد تكون ناجمة عن الحوكمة الذكية.
ثالثًا ، التعامل بشكل صحيح مع "مشكلة البطالة في مجال الذكاء الاصطناعي". يكمن التأثير الأكبر لتطبيق التكنولوجيا الذكية على أنشطة الحوكمة المعاصرة في: توسيع الحرية الاقتصادية ، وزيادة وقت الفراغ ، وتغيير متطلبات الحوكمة العامة بشكل كبير ، وبالتالي تغيير المظهر الأساسي للعملية الاجتماعية. ومع ذلك ، فإن هذا التأثير يعني أيضًا أن "مشكلة البطالة في الذكاء الاصطناعي" أصبحت أكثر خطورة ، مما يشكل تحديات خطيرة لأنشطة الحوكمة في المجتمع بأسره ، وتجذب انتباه المجتمع بأسره ، ويجب التعامل معها بحكمة.
رابعًا ، التكامل الوثيق بين بناء "المدينة الذكية" و "القرية الرقمية". تعد إدارة المدينة علميًا إجراءً استراتيجيًا مهمًا لإدارة التكنولوجيا المعاصرة ، والمدينة الذكية هي شكل متقدم من أشكال المدينة العلمية. نظرًا لأن البشر يعيشون حاليًا بشكل رئيسي في المدن ، لا سيما المدن الكبيرة والكبيرة جدًا ، يتم الترويج للإدارة الذكية الحالية بشكل أساسي حول بناء "المدن الذكية" ، أو بناء "المدن الذكية" باعتبارها الناقل الرئيسي. على وجه الخصوص ، لا يمكن أن يتجاهل بناء الصين الرقمية بناء القرى الرقمية ، ويجب بذل الجهود لتضييق الفجوة بين المناطق الحضرية والريفية من خلال الرقمنة.
خامسًا ، انتبه إلى تكامل التكنولوجيا الذكية والأشخاص. في أنشطة الحوكمة التكنولوجية ، كلما كان الجمع بين التكنولوجيا والأفراد أفضل ، زادت كفاءة الحوكمة. لتعزيز تكامل العوامل البشرية والتقنية في أنشطة الحوكمة الذكية ، من الضروري التفكير بشكل منهجي في خصائص مختلف التقنيات الذكية والأخلاقيات والقوانين وعلم النفس وإدارة الأزمات وما إلى ذلك ، لتعزيز بناء النظام والبحث التكنولوجي والتطوير ، واحتياطيات المواهب ، وتعزيز القيادة التنظيمية ، واستشارات الخبراء والتدريبات القتالية الفعلية ، وتحسين قدرات الحوكمة الذكية للصين بشكل مستمر ومنهجي.
سادساً ، ميز الحكم عن التلاعب في سياقات محددة. هناك حد للحكم الذكي ، وإذا تجاوز الحد ، يصبح تلاعبًا ذكيًا وينتهك الحقوق الأساسية للمواطنين. إن التطوير المستقبلي للحكم الذكي يجب أن يأخذ بعين الاعتبار على وجه التحديد حدود التطبيقات المختلفة. وهذا لا يشمل فقط أهداف الحوكمة ، ولكن أيضًا الوسائل المستخدمة ، ويمكن مراجعته فقط بهدوء وموضوعية وحذر في سياق اجتماعي محدد. لمنع الحوكمة الذكية من التحرك نحو التلاعب الذكي ، فإن القضية المهمة للغاية هي أنه يجب التسامح إلى حد ما مع السلوك المناهض للحكم للحكم الذكي.