特伦斯·陶对数学界发出警告:严厉批评AI的过度评估

robot
摘要生成中

近頃,“AI自主解决人类长期未能破解的数学难题”的大胆新闻接连出现。在这些报道的影响力日益增强之际,一位意想不到的人物提出了异议。那就是特伦斯·陶。作为积极利用AI进行数学研究的专家,他对这一警告的分量格外重视。陶并非否定AI本身,而是呼吁停止媒体和公众对“神话化”的追捧。

为什么“AI数学革命”幻想会蔓延

“AI在50年难题上实现全自动解答——数学家失业时代即将到来”。你可能曾看到过类似的煽动性标题。对于梦想着AGI出现的人们来说,这似乎是希望的曙光;而对于希望维护人类智力尊严的研究者而言,却是隐忧。

实际上,这类轰动性报道的背后,是对信息的片面理解。将个别成功案例误认为整体能力,将未经验证的成果作为既成事实,这些误解不断累积,形成了“AI数学无敌论”。

特伦斯·陶深夜发声,旨在将这种过度期待拉回现实。他在更新的GitHub页面“AI对 Erdős问题的贡献”中,详细说明了在评估AI对未解Erdős问题的贡献时应注意的事项。

特伦斯·陶指出的AI评价陷阱

陶列举的注意点,乍看似乎是否定AI的成果,但实际上是在重新定义“真正的成功”。

难度差异被忽视:Erdős问题涵盖从极其困难的核心难题,到长期悬而未决的“长尾问题”,难度跨度巨大。AI擅长后者,但仅以“解题数量”判断,容易严重低估实际能力。

“未解”标签本身不可靠:网页上列出的问题,很多未经过系统文献调研。“Open”状态的题目,实际上可能早已被前人解决。AI“解答”的问题,实际上可能数十年前就已被发现——这类情况屡见不鲜。

成功案例成为焦点:被记录的,都是AI成功的实例。失败的尝试和无进展的研究几乎无法看到。这种筛选效应,使得AI的能力被高估。

题目描述本身可能存在错误或模糊:部分Erdős问题的表述缺乏严密性,理解其真正意图需要深厚领域知识。表面上“破解”了某个问题,可能只是利用了描述中的漏洞。

数学价值不只在于答案的对错:证明的成立固然重要,但数学的真正价值在于其与现有理论的联系,以及对其他研究领域的启示。人类研究者在写论文时,会自然描述背景、动机、文献关系和方法的“语境”。而陶指出,AI主导的证明,往往缺乏这种“语境”深度。

难以发表的难题大量存在:解答一些边缘的Erdős问题,不一定能发表在一流学术期刊上。若解法只是对现有方法的小改进,更是如此。

形式验证的陷阱:用Lean等工具对AI生成的证明进行形式化,表面上看增强可信度,但也可能在形式化过程中暗中引入公理、误解题意,或利用程序的“角落行为”。尤其当形式化的证明异常短或不自然时,更应警惕。

AI的真正角色:“体力劳动”到“知识桥梁”

2026年1月,#728番と#729号Erdős问题被AI完全解决,并在Lean中验证成功。这表明,在特定领域,AI可以生成“可行的证明结构”,并进行形式验证。

那么,AI在数学研究中究竟扮演什么角色?陶列出多种类别。

AI能生成完整解答,能识别文献中的已解问题,能进行文献检索,能将人类已有的证明形式化为Lean代码……这些都代表不同的作用。特别值得关注的是“AI驱动的文献综述”。在这里,AI负责验证已有成果的真实性,或判断某问题是否未解,类似“前期调研”。

综上,陶强调的核心是:AI擅长处理数学中的“常规工作”,如填空、形式化、论文写作与修订、文献调研等“体力劳动”。而真正提出深刻问题、创造新概念、将成果融入数学整体知识体系的“灵魂工作”,仍然主要依赖人类。

数学的未来:人类指挥,AI执行

陶深夜发出警告的核心,不是低估AI,而是要正确认识其本质。

未来的数学家形象可能发生巨大变化。不是孤独的思索者,而是指挥硅基智能军团的指挥官。在广袤的数学荒野中,人类指引方向,AI开拓道路,架起桥梁。这种分工,或许才是下一代数学研究的理想模式。

我们应避免过度美化AI的成果,同时也不能低估这股正在根本改变追求真理方式的力量。陶的讯息,正是在冷静与现实中,为未来的可能性照亮了一条道路。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论