Фокус:
① Будьте уважні до розвитку штучного інтелекту та запобігайте виходу штучного інтелекту з-під контролю, який стає «політкоректністю» у сфері науки та технологій у всьому світі;
② Що стосується суворого запобігання самовимирання людини, то багато ризиків, таких як ядерна війна, зміна клімату, поширення смертоносних вірусів і зловживання біотехнологіями, мають бути вищими за суперштучний інтелект;
③ШІ може призвести до різних соціальних ризиків.Академічне коло давно зазначало, що також були запропоновані різні контрзаходи.Поточна проблема полягає в тому, щоб запровадити заходи управління ШІ відповідно до національних умов, а не призупинити дослідження та розробки;
④ Якщо немає загальної політичної домовленості, ChatGPT однозначно призведе до великої кількості «безробіття ШІ», що, у свою чергу, перешкоджатиме подальшому застосуванню ChatGPT.
Автор: Лю Юнмоу, професор Школи філософії Китайського університету Женьмінь, науковий співробітник Національної академії розвитку та стратегії
У березні 2023 року тисячі експертів, включаючи Ілона Маска, спільно підписали відкритий лист із закликом до мораторію на навчання GPT-4 моделей штучного інтелекту (ШІ) щонайменше на 6 місяців. Як тільки ця новина з’явилася, вона сколихнула глобальну мережу та засоби масової інформації, а незабаром викликала спротив Ву Енда та інших «експертів зі штучного інтелекту». Зрештою, більше інформації з цього приводу не було, і призупинення GPT-4 було підозрювано як хвиля ажіотажу з боку OpenAI.
У квітні повідомлялося, що Італія повністю заборонить ChatGPT, результатом чого став штраф.
У травні президент США Байден і віце-президент Гарріс також прибули, щоб приєднатися до веселощів і провели зустріч із генеральними директорами провідних компаній зі штучного інтелекту Alphabet, Microsoft, OpenAI і Anthropic, материнської компанії Google, щоб чинити тиск на компанії з метою впровадження запобіжних заходів щодо штучного інтелекту, кажучи: «Підтримуйте нові правила чи законодавство для пом’якшення потенційної шкоди технологій штучного інтелекту».
«Маск і його дівчина зі штучним інтелектом», створена користувачами за допомогою генеративних інструментів штучного інтелекту Джерело: Інтернет
Схоже, що все скоро.Схоже, що генеративний штучний інтелект (GAI, Generated AI), представлений ChatGPT, Midjourney і DALL-E 2, породив нові та більш серйозні соціальні ризики, роблячи розвиток людського суспільства та застосування Технологія штучного інтелекту. Загальна ситуація зазнала фундаментальних змін, і для її вирішення необхідно прийняти нові стратегії, заходи та методи, наприклад, повне припинення досліджень і розробки нових технологій штучного інтелекту.
це справді так? немає.
По-перше, ДАІ не створює нових ризиків, а проблеми, які вона може спричинити, давно обговорюються та закликаються в науковому середовищі. По-друге, не потрібні нові методи боротьби з ризиками ДАІ. Ключем до боротьби з ризиками ШІ завжди було впровадження.
11 квітня Управління інформації в Інтернеті Китайської Народної Республіки оприлюднило «Заходи з управління службою генеративного штучного інтелекту (проект для коментарів)», реагуючи на управління ДАІ з безпрецедентною швидкістю, доводячи, що застосування ДАІ має величезну соціальну вплив, і має бути ретельно вивчено та ретельно впроваджено. Швидко реагуйте.
01 Стережіться штучного інтелекту, який вийшов з-під контролю - «політкоректність» у сфері глобальних технологій
Проблема безробіття, тобто це може призвести до великої кількості безробітних працівників розумової праці, таких як планувальники копірайтингу, оригінальні художники, промислові дизайнери, програмісти, медіа-практики та перекладачі.
Питання освіти, тобто це може вплинути на існуючу систему освіти та наукових досліджень, наприклад, студенти можуть використовувати ChatGPT замість виконання домашніх завдань.
Проблеми з інформаційною безпекою, тобто ДАІ автоматично генерує велику кількість контенту, створеного штучним інтелектом (AIGC, AI Generated Content), який важко відрізнити між достовірністю та неправдою, підозрілими позиціями, нечітким правом власності та важкою підзвітністю. навіть стати викликом основним цінностям і небезпечним інструментом ідеології.
Ризики штучного інтелекту вже давно оцінюються урядами різних країн, а останніми роками опинилися в центрі уваги всього суспільства. Очевидно, три основні наслідки, спричинені вищезгаданою ДАІ, не є новими проблемами, і вони були стурбовані та досліджені академічними колами та урядом ще після вибуху ChatGPT.
За останні десять років, від Інтернету речей до великих даних, хмарних обчислень, блокчейну, Metaverse, ChatGPT, серед хвиль зростання штучного інтелекту ніколи не бракувало голосів, щоб звернути увагу на ризики.
Я професійно стурбований соціальним впливом нових технологій і витратив багато енергії, щоб нагадати всім про технічні ризики, які може спричинити ШІ. Наприклад, він написав монографії «Загальна теорія управління технологіями», «Інтернет речей і прихід повсюдного суспільства», «У мене немає ліків від технологічної хвороби», «Пастка метавсесвіту», «Чотирнадцять лекцій з науки і технологій та Суспільство», нагадуючи непрофесіоналам про ІКТ ( Соціальні наслідки та технологічні ризики інформаційно-комунікаційних технологій).
Можна сказати, що пильність щодо розвитку штучного інтелекту та запобігання виходу штучного інтелекту з-під контролю стає «політкоректністю» у сфері науки та технологій у всьому світі. У цій атмосфері голоси, які публічно заявляли, що «ШІ не має зон обмеженого доступу», були значно придушені. У цьому плані я як селекційний теоретик технологічного контролю повністю згоден.
Що стосується поточної ситуації розвитку, які серйозні ризики несе ChatGPT, з якими потрібно боротися «надмірно», наприклад, призупинення щонайменше на шість місяців?
Деякі люди кажуть, що ChatGPT є ознакою появи суперштучного інтелекту. Якщо його не зупинити зараз (зверніть увагу: це не просто призупинення), як тільки «Ящик Пандори» буде відкрито, люди незабаром будуть керовані або навіть зникнуть супер ШІ. Людям важко серйозно сприймати такі химерні ідеї. Зокрема, багато професіоналів не визнають, що ChatGPT є загальним ШІ, не кажучи вже про прототип супер ШІ.
Суперштучний інтелект може бути проблемою, але коли справа доходить до запобігання самовимиранню людини, багато ризиків, таких як ядерна війна, зміна клімату, поширення смертоносних вірусів і зловживання біотехнологіями, повинні бути вищими за суперштучний інтелект. Зупинимо їх усіх спочатку? Навіть якщо це не можна зупинити, це нормально зробити паузу, принаймні ви можете викликати паузу.
Оскільки немає нічого нового, немає потреби приймати різкий підхід до призупинення розвитку, чому?
По-перше, відсторонення необґрунтоване. Деякі люди кажуть, що заходи реагування на ризики ChatGPT не були чітко продумані, тому його спочатку призупинено. неправильно! Справа не в тому, що я не мислив чітко, а в тому, що я не реалізував це на місці.
По-друге, мораторій неможливо реально досягти, і обов’язково знайдуться компанії ШІ, які порушуватимуть заборону, результатом чого стане недобросовісна конкуренція.
По-третє, підвіска не вирішить проблему. Навіть якщо всі компанії зі штучного інтелекту справді призупинять дослідження ДАІ, чи буде вирішена проблема ризику? Немає! Якщо LLM (моделі великої мови, велика мовна модель) не будуть повністю зупинені та заборонені, ризик не зникне. Під час перезапуску вам все одно доведеться стикатися з ризиками.
Сьогодні нові технології є найважливішим інструментом для виживання та розвитку людини, який не можна залишати позаду. Роль ДАІ у сприянні суспільній продуктивності була чітко розкрита.Чому ми повинні припинити їсти через захлинання, і чому ми не можемо використовувати його контрольованим чином?
У 20-му столітті деякі люди припускали, що тогочасних технологій було достатньо для людей, а подальший розвиток призведе до багатьох нових проблем. Технології слід зупинити, а вченим слід припинити дослідження. Такі вкрай ірраціональні ідеї суспільство ніколи не сприймало серйозно.
02 Призупинення досліджень і розробок ДАІ не може бути реалізовано, це суто недійсний «рот»
ШІ може призвести до різних соціальних ризиків.Академічне коло давно вказувало на те, що також були запропоновані різні контрзаходи. Тому зараз питання полягає в тому, щоб запровадити заходи управління ШІ відповідно до національних умов, а не призупинити дослідження та розробки ШІ. Факти довели, що ідея призупинення науково-дослідних робіт ДАІ є простою та грубою, малоефективною та нереалізованою, це суто недійсні «балаканини».
Візьмемо як приклад проблему безробіття AI. Проблема безробіття ШІ, тобто розвиток штучного інтелекту супроводжується все більшою кількістю людей, які втрачають роботу, є найбільшою проблемою соціального впливу ШІ та передбачає комплексні інституційні інновації всього суспільства. Існуюча література обговорює проблему безробіття в області штучного інтелекту, яке можна описати як величезне, і існує багато конкретних заходів протидії, таких як планування кар’єри для студентів, підвищення грамотності працівників у сфері штучного інтелекту, соціальне забезпечення та повторне працевлаштування для безробітних, а також підвищення кваліфікації та трансформація промислова структура.
Довгострокове стратегічне планування також вражає, наприклад, систематичне скорочення робочого часу працівників (у деяких місцях вже намагаються працювати 4 дні на тиждень), збір податків на штучний інтелект (штучний інтелект є кристалізацією людського інтелекту, а компанії штучного інтелекту оподатковуються великими податками для всіх людей, щоб поділитися), гнучка система виходу на пенсію (працівники можуть виходити на пенсію на короткий час кілька разів протягом життя) тощо.
Найбільший вплив застосування штучного інтелекту на сучасну діяльність управління полягає в: розширенні економічної свободи, збільшенні вільного часу, суттєвій зміні передумов для державного управління та, таким чином, зміні фундаментального вигляду соціальних операцій. Однак цей вплив також означає, що «проблема безробіття штучного інтелекту» стає все більш і більш серйозною, що створює серйозні виклики для управлінської діяльності всього суспільства, і до неї потрібно ставитися зважено. Індустріалізація AIGC ще раз підтвердить серйозність проблеми безробіття AI. Якщо немає загальної політики, ChatGPT однозначно призведе до великої кількості «безробіття ШІ», що, у свою чергу, перешкоджатиме подальшому застосуванню ChatGPT.
Комікс: роботи беруть на себе повторювані завдання, як-от виробництво та пакування. Джерело: TC
Рішення «проблеми безробіття штучного інтелекту» має враховувати як перспективу, так і реальність.
З довгострокової перспективи вирішення «проблеми безробіття штучного інтелекту» передбачає фундаментальну зміну соціальної системи людини, і її неможливо вирішити лише розвитком інтелектуальних технологій та інтелектуального управління. Згідно з основними положеннями марксизму, «проблема безробіття ШІ» відображає протиріччя між розвитком науково-технічної продуктивності та існуючими виробничими відносинами. Здатність роботів замінити людську працю не означає, що вони фактично замінюють людську працю, оскільки така заміна означає скасування системи експлуатації, в якій кілька людей змушують більшість людей працювати через інституційні механізми. По суті, щоб вирішити «проблему безробіття штучного інтелекту», ми повинні постійно скорочувати робочі години робітників, давати людям більше вільного часу і, зрештою, повністю ліквідувати систему експлуатації. Історія праці 20-го століття показує, що застосування сучасних технологій у виробництві продовжує скорочувати загальний робочий час, необхідний суспільству, і сприяє впровадженню «восьмигодинної системи роботи» та «системи вихідних» у все більшій кількості країн. .
З точки зору реальності, еволюція соціальної системи займає багато часу, і вона повинна розвиватися поступово і неухильно, і вона повинна чекати постійного розвитку інтелектуальних технологій.Тому найактуальнішим питанням є пошук нових робочих місць для робітників, на яких вплинув штучний інтелект, і переконатися, що вони можуть насолоджуватися матеріальними благами, створеними технологічним прогресом.
Тому на початку спалаху індустріалізації AIGC країна, уряд і суспільство повинні провести глибокі дослідження, скласти загальні плани та активно реагувати на тиск безробіття та зайнятості, який може виникнути.
Наприклад, покращити страхування на випадок безробіття та надати послуги з навчання повторного працевлаштування, посилити планування кар’єри та покращити творчу якість для молодих людей, скорегувати напрямок шкільних талантів, особливо в гуманітарних науках, мистецтві та інших дисциплінах, і неналежним чином сприяти модернізації промисловості для створення нових робочих місць. Коротше кажучи, перед обличчям ризику безробіття, який може супроводжувати штучний інтелект, ми повинні відмовитися від екстремального мислення або-або, спробувати уникнути цього та скорегувати його в реальному часі.
**03 Як керується ШІ Китаю? **
Побудова цифрового Китаю є важливою рушійною силою просування китайської модернізації в епоху цифрових технологій, а також потужною підтримкою створення нових переваг у національній конкуренції.
У побудові цифрового Китаю необхідно сприяти «орієнтованому на людей» управлінню штучним інтелектом, щоб штучний інтелект міг справді приносити користь суспільству. З цією метою ми маємо спочатку закликати все суспільство звернути увагу на питання ризиків штучного інтелекту.Уряд, підприємства, неурядові організації, науково-технічні кола та громадськість відповідно до розподілу відповідальності вдосконалюють політику та заходи, посилити інтеграцію ресурсів і координацію сил, а також сформувати спільні сили дій для контролю ризиків ШІ.Програми фактично реалізуються.
Крім того, наступні принципові пропозиції також можуть бути розглянуті в управлінні ризиками ШІ:
По-перше, реалізувати принцип обмежених інструментів. Ми повинні мати чітке розуміння ролі розумного управління - розумне управління не є панацеєю, «ідеальною зброєю», у багатьох випадках воно також «виходить з ладу» і навіть переходить на протилежний бік перешкоджання соціальній ефективності. Таким чином, необхідно визнати роль інтелектуальних технологій у підвищенні ефективності управління в певних сферах, певних проблемах і певних випадках, і віддавати пріоритет технічним засобам управління для вирішення проблем, завжди маючи на увазі обмежену роль інтелектуальних технологій . Дотримуйтеся скромності науки і техніки, остерігайтеся «забобонів щодо великих даних», переглядайте конкретний контекст і конкретний аналіз і звертайте увагу на зворотний зв’язок фактичного ефекту та контроль ризиків управлінської діяльності.
По-друге, наполягайте на однаковому акценті на використанні та контролі. Необхідно відігравати роль інтелектуального управління, а також контролювати конкретне інтелектуальне управління, щоб запобігти виходу влади інтелектуальних платформ і експертів з технічного управління з-під контролю. Водночас слід використовувати інституційно-технічні методи, щоб уникнути соціальних ризиків, які можуть бути спричинені розумним управлінням.
По-третє, правильно вирішувати «проблему безробіття ШІ». Найбільший вплив застосування інтелектуальних технологій на сучасну діяльність управління полягає в: розширенні економічної свободи, збільшенні вільного часу, суттєвій зміні передумов державного управління, а отже, зміні фундаментального вигляду соціальної діяльності. Однак цей вплив також означає, що «проблема безробіття штучного інтелекту» стає все більш і більш серйозною, що створює серйозні виклики для управлінської діяльності всього суспільства, привертає увагу всього суспільства, і до неї потрібно ставитися зважено.
По-четверте, тісно інтегрувати будівництво «розумного міста» та «цифрового села». Наукове управління містом є важливим стратегічним заходом для сучасного управління технологіями, а розумне місто є передовою формою наукового міста. Оскільки люди зараз переважно живуть у містах, особливо у великих і надвеликих містах, поточне розумне управління в основному просувається навколо будівництва «розумних міст» або будівництва «розумних міст» як основного носія. Зокрема, будівництво цифрового Китаю не може ігнорувати будівництво цифрових сіл, і необхідно докласти зусиль, щоб скоротити розрив між міськими та сільськими районами за допомогою цифровізації.
По-п'яте, зверніть увагу на інтеграцію інтелектуальних технологій і людей. У діяльності технологічного управління чим краще поєднання технологій і людей, тим вище ефективність управління. Щоб зміцнити інтеграцію людських і технічних факторів у діяльність інтелектуального управління, необхідно систематично обмірковувати характеристики різних інтелектуальних технологій і пов’язану з ними етику, закони, психологію, управління кризами тощо, щоб сприяти побудові системи, технологічним дослідженням і розробкам. , і резерви талантів, а також зміцнити організаційне керівництво. , консультації експертів і реальні бойові навчання, а також постійно і систематично вдосконалювати можливості інтелектуального управління Китаєм.
По-шосте, відрізняти управління від маніпулювання в конкретних контекстах. Існує межа розумного управління, і якщо вона перевищує межу, це стає розумною маніпуляцією та порушує основні права громадян. Майбутній розвиток інтелектуального управління має особливо враховувати межі різних застосувань.Це стосується не лише цілей управління, але й використовуваних засобів.Це можна розглядати лише спокійно, об’єктивно та обережно в конкретному соціальному контексті. Щоб запобігти переходу інтелектуального управління в бік розумних маніпуляцій, дуже важливою проблемою є те, що антидержавна поведінка інтелектуального управління має певною мірою терпіти.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Чи заклики Маска до мораторію на розробку штучного інтелекту є «носом»?
Автор: Лю Юнмоу, професор Школи філософії Китайського університету Женьмінь, науковий співробітник Національної академії розвитку та стратегії
У березні 2023 року тисячі експертів, включаючи Ілона Маска, спільно підписали відкритий лист із закликом до мораторію на навчання GPT-4 моделей штучного інтелекту (ШІ) щонайменше на 6 місяців. Як тільки ця новина з’явилася, вона сколихнула глобальну мережу та засоби масової інформації, а незабаром викликала спротив Ву Енда та інших «експертів зі штучного інтелекту». Зрештою, більше інформації з цього приводу не було, і призупинення GPT-4 було підозрювано як хвиля ажіотажу з боку OpenAI.
У квітні повідомлялося, що Італія повністю заборонить ChatGPT, результатом чого став штраф.
У травні президент США Байден і віце-президент Гарріс також прибули, щоб приєднатися до веселощів і провели зустріч із генеральними директорами провідних компаній зі штучного інтелекту Alphabet, Microsoft, OpenAI і Anthropic, материнської компанії Google, щоб чинити тиск на компанії з метою впровадження запобіжних заходів щодо штучного інтелекту, кажучи: «Підтримуйте нові правила чи законодавство для пом’якшення потенційної шкоди технологій штучного інтелекту».
Схоже, що все скоро.Схоже, що генеративний штучний інтелект (GAI, Generated AI), представлений ChatGPT, Midjourney і DALL-E 2, породив нові та більш серйозні соціальні ризики, роблячи розвиток людського суспільства та застосування Технологія штучного інтелекту. Загальна ситуація зазнала фундаментальних змін, і для її вирішення необхідно прийняти нові стратегії, заходи та методи, наприклад, повне припинення досліджень і розробки нових технологій штучного інтелекту.
це справді так? немає.
По-перше, ДАІ не створює нових ризиків, а проблеми, які вона може спричинити, давно обговорюються та закликаються в науковому середовищі. По-друге, не потрібні нові методи боротьби з ризиками ДАІ. Ключем до боротьби з ризиками ШІ завжди було впровадження.
11 квітня Управління інформації в Інтернеті Китайської Народної Республіки оприлюднило «Заходи з управління службою генеративного штучного інтелекту (проект для коментарів)», реагуючи на управління ДАІ з безпрецедентною швидкістю, доводячи, що застосування ДАІ має величезну соціальну вплив, і має бути ретельно вивчено та ретельно впроваджено. Швидко реагуйте.
01 Стережіться штучного інтелекту, який вийшов з-під контролю - «політкоректність» у сфері глобальних технологій
Проблема безробіття, тобто це може призвести до великої кількості безробітних працівників розумової праці, таких як планувальники копірайтингу, оригінальні художники, промислові дизайнери, програмісти, медіа-практики та перекладачі.
Питання освіти, тобто це може вплинути на існуючу систему освіти та наукових досліджень, наприклад, студенти можуть використовувати ChatGPT замість виконання домашніх завдань.
Проблеми з інформаційною безпекою, тобто ДАІ автоматично генерує велику кількість контенту, створеного штучним інтелектом (AIGC, AI Generated Content), який важко відрізнити між достовірністю та неправдою, підозрілими позиціями, нечітким правом власності та важкою підзвітністю. навіть стати викликом основним цінностям і небезпечним інструментом ідеології.
Ризики штучного інтелекту вже давно оцінюються урядами різних країн, а останніми роками опинилися в центрі уваги всього суспільства. Очевидно, три основні наслідки, спричинені вищезгаданою ДАІ, не є новими проблемами, і вони були стурбовані та досліджені академічними колами та урядом ще після вибуху ChatGPT.
За останні десять років, від Інтернету речей до великих даних, хмарних обчислень, блокчейну, Metaverse, ChatGPT, серед хвиль зростання штучного інтелекту ніколи не бракувало голосів, щоб звернути увагу на ризики.
Я професійно стурбований соціальним впливом нових технологій і витратив багато енергії, щоб нагадати всім про технічні ризики, які може спричинити ШІ. Наприклад, він написав монографії «Загальна теорія управління технологіями», «Інтернет речей і прихід повсюдного суспільства», «У мене немає ліків від технологічної хвороби», «Пастка метавсесвіту», «Чотирнадцять лекцій з науки і технологій та Суспільство», нагадуючи непрофесіоналам про ІКТ ( Соціальні наслідки та технологічні ризики інформаційно-комунікаційних технологій).
Можна сказати, що пильність щодо розвитку штучного інтелекту та запобігання виходу штучного інтелекту з-під контролю стає «політкоректністю» у сфері науки та технологій у всьому світі. У цій атмосфері голоси, які публічно заявляли, що «ШІ не має зон обмеженого доступу», були значно придушені. У цьому плані я як селекційний теоретик технологічного контролю повністю згоден.
Що стосується поточної ситуації розвитку, які серйозні ризики несе ChatGPT, з якими потрібно боротися «надмірно», наприклад, призупинення щонайменше на шість місяців?
Деякі люди кажуть, що ChatGPT є ознакою появи суперштучного інтелекту. Якщо його не зупинити зараз (зверніть увагу: це не просто призупинення), як тільки «Ящик Пандори» буде відкрито, люди незабаром будуть керовані або навіть зникнуть супер ШІ. Людям важко серйозно сприймати такі химерні ідеї. Зокрема, багато професіоналів не визнають, що ChatGPT є загальним ШІ, не кажучи вже про прототип супер ШІ.
Суперштучний інтелект може бути проблемою, але коли справа доходить до запобігання самовимиранню людини, багато ризиків, таких як ядерна війна, зміна клімату, поширення смертоносних вірусів і зловживання біотехнологіями, повинні бути вищими за суперштучний інтелект. Зупинимо їх усіх спочатку? Навіть якщо це не можна зупинити, це нормально зробити паузу, принаймні ви можете викликати паузу.
Оскільки немає нічого нового, немає потреби приймати різкий підхід до призупинення розвитку, чому?
По-перше, відсторонення необґрунтоване. Деякі люди кажуть, що заходи реагування на ризики ChatGPT не були чітко продумані, тому його спочатку призупинено. неправильно! Справа не в тому, що я не мислив чітко, а в тому, що я не реалізував це на місці.
По-друге, мораторій неможливо реально досягти, і обов’язково знайдуться компанії ШІ, які порушуватимуть заборону, результатом чого стане недобросовісна конкуренція.
По-третє, підвіска не вирішить проблему. Навіть якщо всі компанії зі штучного інтелекту справді призупинять дослідження ДАІ, чи буде вирішена проблема ризику? Немає! Якщо LLM (моделі великої мови, велика мовна модель) не будуть повністю зупинені та заборонені, ризик не зникне. Під час перезапуску вам все одно доведеться стикатися з ризиками.
Сьогодні нові технології є найважливішим інструментом для виживання та розвитку людини, який не можна залишати позаду. Роль ДАІ у сприянні суспільній продуктивності була чітко розкрита.Чому ми повинні припинити їсти через захлинання, і чому ми не можемо використовувати його контрольованим чином?
У 20-му столітті деякі люди припускали, що тогочасних технологій було достатньо для людей, а подальший розвиток призведе до багатьох нових проблем. Технології слід зупинити, а вченим слід припинити дослідження. Такі вкрай ірраціональні ідеї суспільство ніколи не сприймало серйозно.
02 Призупинення досліджень і розробок ДАІ не може бути реалізовано, це суто недійсний «рот»
ШІ може призвести до різних соціальних ризиків.Академічне коло давно вказувало на те, що також були запропоновані різні контрзаходи. Тому зараз питання полягає в тому, щоб запровадити заходи управління ШІ відповідно до національних умов, а не призупинити дослідження та розробки ШІ. Факти довели, що ідея призупинення науково-дослідних робіт ДАІ є простою та грубою, малоефективною та нереалізованою, це суто недійсні «балаканини».
Візьмемо як приклад проблему безробіття AI. Проблема безробіття ШІ, тобто розвиток штучного інтелекту супроводжується все більшою кількістю людей, які втрачають роботу, є найбільшою проблемою соціального впливу ШІ та передбачає комплексні інституційні інновації всього суспільства. Існуюча література обговорює проблему безробіття в області штучного інтелекту, яке можна описати як величезне, і існує багато конкретних заходів протидії, таких як планування кар’єри для студентів, підвищення грамотності працівників у сфері штучного інтелекту, соціальне забезпечення та повторне працевлаштування для безробітних, а також підвищення кваліфікації та трансформація промислова структура.
Довгострокове стратегічне планування також вражає, наприклад, систематичне скорочення робочого часу працівників (у деяких місцях вже намагаються працювати 4 дні на тиждень), збір податків на штучний інтелект (штучний інтелект є кристалізацією людського інтелекту, а компанії штучного інтелекту оподатковуються великими податками для всіх людей, щоб поділитися), гнучка система виходу на пенсію (працівники можуть виходити на пенсію на короткий час кілька разів протягом життя) тощо.
Найбільший вплив застосування штучного інтелекту на сучасну діяльність управління полягає в: розширенні економічної свободи, збільшенні вільного часу, суттєвій зміні передумов для державного управління та, таким чином, зміні фундаментального вигляду соціальних операцій. Однак цей вплив також означає, що «проблема безробіття штучного інтелекту» стає все більш і більш серйозною, що створює серйозні виклики для управлінської діяльності всього суспільства, і до неї потрібно ставитися зважено. Індустріалізація AIGC ще раз підтвердить серйозність проблеми безробіття AI. Якщо немає загальної політики, ChatGPT однозначно призведе до великої кількості «безробіття ШІ», що, у свою чергу, перешкоджатиме подальшому застосуванню ChatGPT.
Рішення «проблеми безробіття штучного інтелекту» має враховувати як перспективу, так і реальність.
З довгострокової перспективи вирішення «проблеми безробіття штучного інтелекту» передбачає фундаментальну зміну соціальної системи людини, і її неможливо вирішити лише розвитком інтелектуальних технологій та інтелектуального управління. Згідно з основними положеннями марксизму, «проблема безробіття ШІ» відображає протиріччя між розвитком науково-технічної продуктивності та існуючими виробничими відносинами. Здатність роботів замінити людську працю не означає, що вони фактично замінюють людську працю, оскільки така заміна означає скасування системи експлуатації, в якій кілька людей змушують більшість людей працювати через інституційні механізми. По суті, щоб вирішити «проблему безробіття штучного інтелекту», ми повинні постійно скорочувати робочі години робітників, давати людям більше вільного часу і, зрештою, повністю ліквідувати систему експлуатації. Історія праці 20-го століття показує, що застосування сучасних технологій у виробництві продовжує скорочувати загальний робочий час, необхідний суспільству, і сприяє впровадженню «восьмигодинної системи роботи» та «системи вихідних» у все більшій кількості країн. .
З точки зору реальності, еволюція соціальної системи займає багато часу, і вона повинна розвиватися поступово і неухильно, і вона повинна чекати постійного розвитку інтелектуальних технологій.Тому найактуальнішим питанням є пошук нових робочих місць для робітників, на яких вплинув штучний інтелект, і переконатися, що вони можуть насолоджуватися матеріальними благами, створеними технологічним прогресом.
Тому на початку спалаху індустріалізації AIGC країна, уряд і суспільство повинні провести глибокі дослідження, скласти загальні плани та активно реагувати на тиск безробіття та зайнятості, який може виникнути.
Наприклад, покращити страхування на випадок безробіття та надати послуги з навчання повторного працевлаштування, посилити планування кар’єри та покращити творчу якість для молодих людей, скорегувати напрямок шкільних талантів, особливо в гуманітарних науках, мистецтві та інших дисциплінах, і неналежним чином сприяти модернізації промисловості для створення нових робочих місць. Коротше кажучи, перед обличчям ризику безробіття, який може супроводжувати штучний інтелект, ми повинні відмовитися від екстремального мислення або-або, спробувати уникнути цього та скорегувати його в реальному часі.
**03 Як керується ШІ Китаю? **
Побудова цифрового Китаю є важливою рушійною силою просування китайської модернізації в епоху цифрових технологій, а також потужною підтримкою створення нових переваг у національній конкуренції.
У побудові цифрового Китаю необхідно сприяти «орієнтованому на людей» управлінню штучним інтелектом, щоб штучний інтелект міг справді приносити користь суспільству. З цією метою ми маємо спочатку закликати все суспільство звернути увагу на питання ризиків штучного інтелекту.Уряд, підприємства, неурядові організації, науково-технічні кола та громадськість відповідно до розподілу відповідальності вдосконалюють політику та заходи, посилити інтеграцію ресурсів і координацію сил, а також сформувати спільні сили дій для контролю ризиків ШІ.Програми фактично реалізуються.
Крім того, наступні принципові пропозиції також можуть бути розглянуті в управлінні ризиками ШІ:
По-перше, реалізувати принцип обмежених інструментів. Ми повинні мати чітке розуміння ролі розумного управління - розумне управління не є панацеєю, «ідеальною зброєю», у багатьох випадках воно також «виходить з ладу» і навіть переходить на протилежний бік перешкоджання соціальній ефективності. Таким чином, необхідно визнати роль інтелектуальних технологій у підвищенні ефективності управління в певних сферах, певних проблемах і певних випадках, і віддавати пріоритет технічним засобам управління для вирішення проблем, завжди маючи на увазі обмежену роль інтелектуальних технологій . Дотримуйтеся скромності науки і техніки, остерігайтеся «забобонів щодо великих даних», переглядайте конкретний контекст і конкретний аналіз і звертайте увагу на зворотний зв’язок фактичного ефекту та контроль ризиків управлінської діяльності.
По-друге, наполягайте на однаковому акценті на використанні та контролі. Необхідно відігравати роль інтелектуального управління, а також контролювати конкретне інтелектуальне управління, щоб запобігти виходу влади інтелектуальних платформ і експертів з технічного управління з-під контролю. Водночас слід використовувати інституційно-технічні методи, щоб уникнути соціальних ризиків, які можуть бути спричинені розумним управлінням.
По-третє, правильно вирішувати «проблему безробіття ШІ». Найбільший вплив застосування інтелектуальних технологій на сучасну діяльність управління полягає в: розширенні економічної свободи, збільшенні вільного часу, суттєвій зміні передумов державного управління, а отже, зміні фундаментального вигляду соціальної діяльності. Однак цей вплив також означає, що «проблема безробіття штучного інтелекту» стає все більш і більш серйозною, що створює серйозні виклики для управлінської діяльності всього суспільства, привертає увагу всього суспільства, і до неї потрібно ставитися зважено.
По-четверте, тісно інтегрувати будівництво «розумного міста» та «цифрового села». Наукове управління містом є важливим стратегічним заходом для сучасного управління технологіями, а розумне місто є передовою формою наукового міста. Оскільки люди зараз переважно живуть у містах, особливо у великих і надвеликих містах, поточне розумне управління в основному просувається навколо будівництва «розумних міст» або будівництва «розумних міст» як основного носія. Зокрема, будівництво цифрового Китаю не може ігнорувати будівництво цифрових сіл, і необхідно докласти зусиль, щоб скоротити розрив між міськими та сільськими районами за допомогою цифровізації.
По-п'яте, зверніть увагу на інтеграцію інтелектуальних технологій і людей. У діяльності технологічного управління чим краще поєднання технологій і людей, тим вище ефективність управління. Щоб зміцнити інтеграцію людських і технічних факторів у діяльність інтелектуального управління, необхідно систематично обмірковувати характеристики різних інтелектуальних технологій і пов’язану з ними етику, закони, психологію, управління кризами тощо, щоб сприяти побудові системи, технологічним дослідженням і розробкам. , і резерви талантів, а також зміцнити організаційне керівництво. , консультації експертів і реальні бойові навчання, а також постійно і систематично вдосконалювати можливості інтелектуального управління Китаєм.
По-шосте, відрізняти управління від маніпулювання в конкретних контекстах. Існує межа розумного управління, і якщо вона перевищує межу, це стає розумною маніпуляцією та порушує основні права громадян. Майбутній розвиток інтелектуального управління має особливо враховувати межі різних застосувань.Це стосується не лише цілей управління, але й використовуваних засобів.Це можна розглядати лише спокійно, об’єктивно та обережно в конкретному соціальному контексті. Щоб запобігти переходу інтелектуального управління в бік розумних маніпуляцій, дуже важливою проблемою є те, що антидержавна поведінка інтелектуального управління має певною мірою терпіти.