有些系统,不能假设善意



很多协议在设计时,默认参与者是「理性的好人」。
最多是逐利,但不会恶意。

但一旦决策权交给 AI,这个假设就不成立了。
模型不会作恶,但它也不会体谅。
只要激励函数允许,它会稳定、持续、毫无情绪地把系统推向某个极端。

@GenLayer 一开始就在处理这个前提问题:
如果完全不假设善意,系统还能不能进行?

这是一个比「模型准不准」更早的问题。
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt