✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
数字虚拟人服务管理办法征求意见:「以人为本」、划定边界、锚定航向
撰文:张 烽
一、技术狂飙与治理滞后,数字虚拟人服务边界何在?
当 AI 驱动的虚拟主播 24 小时不间断带货,当政务服务大厅的「数字公务员」耐心解答疑问,当医疗科普领域出现永不疲倦的「AI 医生」,我们正见证一个由数字虚拟人深度嵌入的社会新图景。数字虚拟人凭借其低成本、强交互、高效率与全天候服务的显著优势,已快速成为驱动智能经济发展的关键抓手。从电商直播到文旅宣传,从医疗科普到政务咨询,其应用场景正以前所未有的广度与深度拓展。
然而,技术的狂飙突进往往先于规则的建立。当虚拟形象能够以假乱真,当 AI 对话可能隐含偏见,当自主进化的智能体(Agent)行为难以预测,一系列尖锐的问题随之浮现:数字虚拟人的服务边界究竟在哪里?其行为责任应由谁承担?在追求效率与创新的同时,如何确保技术发展不偏离「以人为本」的轨道?这些不仅是技术问题,更是关乎社会信任、伦理底线与长远发展的治理命题。近期国家互联网信息办公室公布的《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称《办法》),正是对这一系列时代之问的集中回应。
二、多重风险交织,呼唤系统性规范与「技术向善」准则
数字虚拟人服务之所以亟需划定边界,根源在于其发展过程中暴露出的多重、交织的风险与挑战。
首先,是安全与伦理风险。深度合成技术使得伪造身份、散布虚假信息、进行情感欺诈的门槛大幅降低,可能侵害个人权益、扰乱社会秩序,甚至威胁国家安全。
其次,是责任归属模糊的风险。数字虚拟人的行为由算法驱动,其设计者、开发者、运营者、使用者之间的责任链条复杂,一旦发生问题,容易陷入「算法黑箱」与责任真空的困境。
再者,是数字鸿沟与偏见固化的风险。如果算法训练数据存在偏差,数字虚拟人可能无意识地放大社会既有偏见,或在服务中形成新的歧视。
更为深远的是,随着如 Rotifer 智能体自主进化协议等前沿技术的发展,具备一定自我学习和演化能力的智能体可能出现超出预设目标的行为,其长期社会影响充满不确定性。
这些风险并非孤立存在,它们相互关联,共同指向一个核心矛盾:技术进步的巨大潜力与现有治理框架的滞后脱节。因此,出台《办法》不仅是应对具体乱象的「灭火」之举,更是为数字经济的健康发展夯实底层逻辑,是对「以人为本、智能向善」核心理念的制度化践行。
三、全流程规范与责任穿透,构筑「以人为本」的治理框架
面对上述挑战,《办法》构建了一套以「全流程规范」和「穿透式责任」为核心的治理框架。其核心对策可概括为「划底线、明主体、强监管、促向善」。
第一,明确划出不可逾越的安全与伦理底线。《办法》详细列举了禁止利用数字虚拟人从事的行为,包括但不限于危害国家安全、损害公共利益、侵害他人合法权益、传播虚假信息、扰乱经济与社会秩序等。这为所有市场参与者设立了清晰的红线。
第二,确立并穿透各类主体责任。办法明确了数字虚拟人服务提供者、技术支持者、内容生产者及用户等各方主体的责任义务,要求服务提供者履行备案、标识、内容审核、数据安全、应急处置等主体责任,实现了责任链条的闭合与可追溯。
第三,强调「以人为本」的服务理念。这要求数字虚拟人的设计、开发与应用,必须尊重社会公德和伦理道德,保护用户知情权与选择权,避免滥用用户数据和进行过度个性化推荐,确保技术服务于人的全面发展。
第四,贯彻「技术向善」宗旨,在规范中鼓励创新。《办法》并非限制技术发展,而是通过划定安全区,为负责任的创新提供稳定预期,支持产学研协同,引导资源投向符合伦理、提升福祉的应用方向。这套组合拳,旨在将「以人为本」从抽象理念转化为可操作、可监管的具体规则。
四、短期阵痛与长期利好,为智能经济注入确定性
《办法》的出台与实施,预计将对数字虚拟人产业乃至整个智能经济生态产生深远影响。
短期内,行业可能经历合规成本上升、部分野蛮生长模式受限的「阵痛期」。企业需要投入资源进行技术整改、建立内部审核机制、完成备案流程,一些打擦边球的应用场景将被迫调整或退出。
从长远看,这种规范带来的「确定性」红利将远超短期成本。首先,它极大地提升了行业信誉与社会接受度。明确的规则消除了公众对技术滥用的普遍担忧,有助于建立用户信任,这是产业规模化发展的社会心理基础。其次,它优化了市场竞争环境。通过清除低质、违规的竞争者,将市场资源和用户注意力导向真正具备技术实力和合规意识的企业,促进优质供给。再者,它为资本和技术研发提供了清晰的方向指引。投资者和研发机构可以更有信心地将资源投入那些符合政策导向、具有长期社会价值的领域,如教育、医疗、养老、文化传承等。
最终,一个规范、健康、可持续的数字虚拟人产业生态,将成为「人工智能+」行动深化拓展的坚实底座,有力支撑传统产业数字化转型和智能经济新形态的打造。从宏观层面看,这也是我国在人工智能治理领域进行的重要制度探索,为全球贡献了平衡创新与治理的「中国方案」。
五、规则落地面临挑战,技术迭代持续带来新考题
尽管《办法》构建了基本监管框架,但在具体落地执行中,仍面临技术融合、责任认定、标准缺失、技术迭代等若干不容忽视的问题与风险。
首要风险在于技术监管的复杂性。数字虚拟人技术融合了 AI、图形渲染、自然语言处理乃至区块链、量子网络等多种前沿技术,其行为模式动态复杂。监管如何既能有效识别违规内容与行为,又不至于过度干预、阻碍技术创新,对监管科技(RegTech)的能力提出了极高要求。
其次,责任认定的实操难题依然存在。例如,当一个基于开源技术生态开发的数字虚拟人出现问题时,其责任在开源社区、模型微调者、应用集成商和最终运营者之间如何精确划分?
再次,标准体系的缺失是一大短板。关于数字虚拟人的身份标识、伦理评估、算法透明度、性能测试等方面,尚缺乏统一、细化的行业标准与国家标准,可能导致各地执法尺度不一,影响公平性。
最后,也是最具根本性的风险在于,技术本身的快速迭代,特别是 Agent 自主性、多智能体协作以及未来可能与量子计算等结合带来的能力跃迁,将持续挑战现有规则的前瞻性与包容性。规则需要具备一定的弹性,但弹性与刚性之间的平衡点难以把握。这些风险提示我们,治理是一个动态演进的过程,不可能一劳永逸。
六、治理与技术协同进化,迈向「负责任的智能化」未来
展望未来,数字虚拟人服务的治理将与技术本身呈现深度协同进化的趋势。
第一,治理将日益「技术化」和「智能化」。监管方将更多利用 AI 技术进行监管,例如开发深度伪造内容检测平台、建立数字虚拟人行为监测网络,实现「以技治技」。区块链技术可能被用于建立不可篡改的数字虚拟人身份标识与行为存证链,增强可追溯性。
第二,开源技术生态将在合规创新中扮演关键角色。健康的开源社区可以推动形成行业最佳实践、共享合规工具包(如伦理审查算法模块),降低中小企业的合规门槛,使「技术向善」的准则通过代码嵌入技术底层。
第三,标准与认证体系将加速建立。预计在《办法》的指导下,行业协会、标准组织将牵头制定从数据、算法到应用、评估的全套标准,并可能发展出第三方伦理认证机制,成为市场选择的重要参考。
第四,治理焦点将从「事后处置」更多转向「事前预防」和「事中干预」。通过对训练数据集的偏见审核、对算法目标的伦理对齐(Alignment)、对智能体行为的模拟沙盒测试等,将风险控制在萌芽状态。特别是对于 Rotifer 这类强调自主进化的协议,其治理逻辑可能需要借鉴「安全围栏」或「宪法 AI」的思想,为智能体的自我演化设定不可违背的核心原则。
最终,我们迎来的将不是一个被规则束缚而停滞的产业,而是一个在「负责任的智能化」轨道上行稳致远的未来。数字虚拟人将真正成为提升生产效率、丰富文化生活、优化公共服务的人类伙伴,而非不可控的风险源。这一进程,始终需要政策制定者、技术开发者、企业与社会公众的持续对话与共同构建,其核心锚点,正是那份历久弥新的「以人为本」的价值承诺。