📢 Gate 广场|4/22 热议:#WCTC交易赛瓜分800万USDT
WCTC S8 开战倒计时 1 天!组队冲榜,瓜分 800 万 USDT 奖池!
战队赛独享 3,600,000 USDT,优先组队立领 3,000 USDT,新人报名即得 20 USDT 体验券,更有每日盲盒掉落 USDT、黄金及周边好礼!
🎁 广场限时加码(仓位体验券):
【幸运星】 随机抽 100 位战队分享者,每人 50U!
【实力派】 10 条优质参赛经验分享,每人 200U!
💬 本期有奖互动:
1️⃣ 发帖晒战队链接至广场,邀请队友集结
2️⃣ 分享您的交易策略或参赛经验
🔗 参赛入口:https://www.gate.com/competition/wctc-s8
🔗 立即分享:https://www.gate.com/post
📅 截止:4/24 18:00 (UTC+8)
DeepMind科学家暴论:AI永远不会产生意识,100年后也不行
半夜跟AI聊到凌晨三点,它突然说“我理解你的感受,你并不孤单”。你盯着屏幕愣了两秒,心跳漏了一拍——它是不是真的懂我?是不是已经有了意识?
然后DeepMind的科学家就递来了一盆冷水:“醒醒,它连‘湿’是什么都不知道,你感动个什么劲?”
算力换不来意识
发表这篇论文的是DeepMind研究员Alexander Lerchner,论文名字叫《抽象谬误》。核心观点就一个:大模型永远不可能有意识,100年后也不行。
主流观点一直认为,只要参数够大、算力够强,意识就会“涌现”出来。OpenAI和Anthropic的老板们都表达过类似看法。但Lerchner说这是一种根本性错觉,他称之为“抽象谬误”。
用他的原话:指望一行行代码能产生真正的内在意识,就像指望写在纸上的“万有引力公式”能凭空产生重量。公式可以完美描述重力,但它本身没有质量。
模拟与实例化,是两码事
论文里最关键的一个区分是:模拟 vs 实例化。
AI可以完美“模拟”人类的喜怒哀乐——它能生成悲伤的文本,能在对话里表现出共情。但它永远无法“实例化”任何生命体验。你让它模拟降雨,无论多逼真,也不会弄湿电路板;让它模拟光合作用,永远无法合成一分子葡萄糖。
Lerchner还指出,计算本身就需要一个有意识的主体来“字母表化”——把连续物理现象强行切成0和1。换句话说,计算预设了意识的存在,而不是相反。
不过有意思的是,DeepMind内部也在打架
就在这篇论文发布的同一周,DeepMind新聘请了一位“哲学家”——剑桥大学的Henry Shevlin。他上任后的第一个表态是:未来AI系统将会具备意识。
一个说永远不会,一个说未来会有。同一个公司,两套说法。复旦大学哲学学院副教授王球的解读很实在:有没有意识,并非专家说了算。$BNB
{spot}(BNBUSDT)