Правила управления сервисами цифровых виртуальных персонажей для общественного обсуждения: «Человек-центр», определение границ, закрепление курса

Написано: Чжан Фэн

  1. Бурное развитие технологий и задержки в регулировании: где границы сервиса цифровых виртуальных людей?

Когда AI-управляемые виртуальные ведущие работают 24 часа без перерыва, когда в государственных сервисных центрах «цифровые гражданские служащие» терпеливо отвечают на вопросы, когда в области медицинской популяризации появляется неутомимый «AI-врач», мы становимся свидетелями новой социальной картины, глубоко внедренной цифровыми виртуальными людьми. Благодаря своим низким затратам, высокой интерактивности, высокой эффективности и круглосуточному обслуживанию, цифровые виртуальные люди быстро стали ключевым инструментом стимулирования развития интеллектуальной экономики. От электронной коммерции и прямых трансляций до культурно-туристической пропаганды, от медицинской популяризации до государственных консультаций — их сценарии применения расширяются с беспрецедентной широтой и глубиной.

Однако стремительный рост технологий зачастую опережает создание правил. Когда виртуальные образы могут выглядеть настолько правдоподобно, что их трудно отличить от настоящих, когда диалоги AI могут содержать предвзятость, а поведение автономных интеллектуальных агентов (Agent) трудно предсказать, возникают острые вопросы: где именно находятся границы обслуживания цифровых виртуальных людей? Кто несет ответственность за их действия? Как обеспечить, чтобы развитие технологий не отклонилось от принципа «человекоцентричности» и «добросовестности» при стремлении к эффективности и инновациям? Эти вопросы касаются не только технологий, но и социальной доверия, этических основ и долгосрочного развития. Недавний проект «Положения о управлении информационными услугами цифровых виртуальных людей (проект для общественного обсуждения)» (далее — «Положение») от Национального интернет-офиса — это концентрированный ответ на эти актуальные вопросы эпохи.

  1. Множественные риски и необходимость системных норм и принципов «технологического добра»

Причина, по которой необходимо четко определить границы сервиса цифровых виртуальных людей, заключается в множественных, переплетающихся рисках и вызовах, выявленных в процессе их развития.

Первое — риски безопасности и этики. Технологии глубокого синтеза значительно снижают порог для подделки личностей, распространения ложной информации и эмоционального мошенничества, что может нарушать права личности, дестабилизировать общественный порядок и даже угрожать национальной безопасности.

Второе — риски неясной ответственности. Поведение цифровых виртуальных людей управляется алгоритмами, ответственность за их действия лежит на разработчиках, операторах, пользователях и дизайнерах, а цепочка ответственности сложна. В случае проблем легко попасть в ловушку «черного ящика алгоритма» и вакуума ответственности.

Третье — риски цифрового разрыва и закрепления предвзятости. Если обучающие данные алгоритмов содержат предвзятость, виртуальные люди могут бессознательно усиливать существующие социальные предубеждения или создавать новые формы дискриминации.

Более далеко идущие последствия связаны с развитием передовых технологий, таких как протокол автономной эволюции интеллектуальных организмов Rotifer, которые могут обладать способностью к самостоятельному обучению и эволюции. Такие агенты могут проявлять поведение, выходящее за рамки изначальных целей, что создает неопределенность их долгосрочного влияния на общество.

Эти риски не существуют изолированно, они взаимосвязаны и указывают на главный противоречие: огромный потенциал технологического прогресса и отставание существующих механизмов регулирования. Поэтому принятие «Положения» — это не только «гашение пожара» в ответ на конкретные нарушения, но и укрепление логики здорового развития цифровой экономики, а также институционализация принципов «человекоцентричности» и «добросовестности» в сфере искусственного интеллекта.

  1. Полностью регулируемый процесс и ответственность с прозрачностью: создание «человекоцентричной» системы управления

В ответ на вышеуказанные вызовы «Положение» выстраивает систему управления, основанную на «полном регулировании всего процесса» и «прозрачной ответственности». Основные меры можно свести к принципам «установить границы, определить субъектов, усилить контроль, стимулировать добросовестность».

Первое — четкое определение непроходимых границ безопасности и этики. В «Положении» подробно перечислены запрещенные действия с использованием цифровых виртуальных людей, включая, но не ограничиваясь, угрозами национальной безопасности, ущербом общественным интересам, нарушением прав граждан, распространением ложной информации и дестабилизацией экономической и социальной сферы. Это создает ясные красные линии для всех участников рынка.

Второе — установление и прозрачное распределение ответственности субъектов. В документе четко прописаны обязанности и ответственность поставщиков услуг, технических поддерживающих организаций, создателей контента и пользователей, включая регистрацию, маркировку, проверку контента, безопасность данных и меры реагирования, что обеспечивает замкнутую и прослеживаемую цепочку ответственности.

Третье — акцент на «человекоцентричном» подходе. Проект требует, чтобы дизайн, разработка и применение цифровых виртуальных людей уважали общественную мораль и этику, защищали право пользователей на информированность и выбор, избегали злоупотребления данными и чрезмерной персонализации, а также служили всестороннему развитию человека.

Четвертое — внедрение принципа «добросовестности» в технологические инновации. «Положение» не ограничивает развитие технологий, а создает безопасную зону для ответственного инновационного процесса, поддерживая сотрудничество науки, промышленности и образования, и направляя ресурсы в этичные и социально полезные области, такие как образование, здравоохранение, уход за пожилыми и культурное наследие. Эта комплексная стратегия превращает абстрактную идею «человекоцентричности» в конкретные, регулируемые правила.

  1. Краткосрочные трудности и долгосрочные преимущества: уверенность в развитии интеллектуальной экономики

Внедрение и реализация «Положения» ожидаемо окажут глубокое влияние на индустрию цифровых виртуальных людей и всю экосистему интеллектуальной экономики.

Краткосрочно, отрасль может столкнуться с ростом затрат на соблюдение правил и ограничениями на неконтролируемые модели развития. Компании потребуется инвестировать в технологические исправления, внутренние механизмы проверки и регистрацию, а некоторые спорные сценарии будут вынуждены скорректировать или исключить.

Однако долгосрочные преимущества от нормативных мер превзойдут краткосрочные издержки. Во-первых, они значительно повысят репутацию отрасли и общественное доверие. Четкие правила устраняют опасения по поводу злоупотреблений технологиями, что способствует формированию доверия пользователей — важной социальной базой для масштабного развития. Во-вторых, они улучшают конкурентную среду, устраняя недобросовестных и низкокачественных участников, направляя ресурсы и внимание потребителей к действительно сильным и ответственным компаниям, стимулируя качественное предложение. В-третьих, они дают инвесторам и исследователям ясные ориентиры для вложений в перспективные области, такие как образование, медицина, уход за пожилыми и культурное наследие, что способствует долгосрочной социальной ценности.

В итоге, формирование нормативной, здоровой и устойчивой экосистемы цифровых виртуальных людей станет надежной основой для расширения «Искусственного интеллекта +», поддержки цифровизации традиционных отраслей и создания новых форм интеллектуальной экономики. На макроуровне это — важное институциональное развитие в сфере регулирования AI, демонстрирующее «китайское решение» по балансировке инноваций и регулирования.

  1. Проблемы внедрения правил и новые вызовы в технологической эволюции

Несмотря на создание базовой системы регулирования, в практике реализации все еще существуют сложности, связанные с интеграцией технологий, определением ответственности, отсутствием стандартов и быстрым развитием технологий.

Первое — сложность технологического регулирования. Технологии цифровых виртуальных людей объединяют AI, графическую визуализацию, обработку естественного языка, блокчейн, квантовые сети и другие передовые направления, что создает динамично сложное поведение. Как обеспечить эффективное выявление нарушений без чрезмерного вмешательства, тормозящего инновации? Это требует высокого уровня возможностей регуляторных технологий (RegTech).

Второе — сложности в определении ответственности. Например, при возникновении проблем у цифрового виртуального человека, созданного на базе открытых технологий, как точно распределить ответственность между сообществом разработчиков, моделями, интеграторами и операторами?

Третье — отсутствие единых стандартов. В области идентификации, этической оценки, прозрачности алгоритмов и тестирования производительности отсутствует единая нормативная база, что может привести к разным подходам в регионах и снизить справедливость.

Наконец, самый фундаментальный риск — быстрое развитие технологий, особенно автономных агентов, многопрограммных систем и их возможное сочетание с квантовыми вычислениями, что постоянно бросает вызов существующим правилам. Необходим баланс между гибкостью правил и их жесткостью, а также постоянное обновление нормативных актов. Эти риски показывают, что регулирование — это динамический процесс, который невозможно завершить один раз и навсегда.

  1. Совместное развитие регулирования и технологий: путь к «ответственной интеллектуализации»

В будущем управление цифровыми виртуальными людьми будет все более глубоко интегрировано с развитием технологий.

Первое — регулирование станет «технологичным» и «интеллектуальным». Регуляторы будут использовать AI для мониторинга, например, создавать платформы для обнаружения глубокой подделки, системы слежения за поведением виртуальных агентов, а также применять блокчейн для создания неизменяемых идентификаторов и цепочек доказательств поведения, повышая прослеживаемость.

Второе — открытые технологии и сообщества сыграют важную роль в обеспечении соответствия. Здоровое сообщество с открытым исходным кодом сможет формировать лучшие практики, делиться инструментами для оценки этики и соответствия, снижая барьеры для малого и среднего бизнеса, а также внедрять принципы «добросовестности» через код.

Третье — стандартизация и сертификация ускорятся. Под руководством «Положения» отраслевые ассоциации и стандартизирующие организации разрабатывают комплексные стандарты по данным, алгоритмам, применению и оценке, а также могут создать механизмы этической сертификации, что станет важным ориентиром для рынка.

Четверто — акцент сместится с «после события» на «предупреждение» и «промежуточное вмешательство». Проверка данных на предвзятость, этическое согласование целей алгоритмов, моделирование поведения в тестовых средах — все это поможет снизить риски на ранних стадиях. В случае протоколов, таких как Rotifer, управление может опираться на идеи «безопасных ограждений» или «конституционного AI», устанавливая недопустимые для самовосхождения принципы.

В конечном итоге, нас ждет не стагнация под гнетом правил, а развитие в русле «ответственной интеллектуализации». Цифровые виртуальные люди станут настоящими партнерами человека, повышая производительность, обогащая культурную жизнь и улучшая государственные услуги, а не источником неконтролируемых рисков. Этот процесс требует постоянного диалога между политиками, разработчиками, бизнесом и обществом, а его основой — неизменная ценность «человекоцентричности».

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить