陶哲轩用 GPT-5 解决数学难题:仅 29 行 Python 代码

2025-10-04 发布 · 浏览20次 · 点赞0次 · 收藏0次

AI 又又又帮陶哲轩解决了一个难题!

消息来自陶本人最新发帖,他直言不讳地表示:

如果没有 AI 帮忙,完成同样任务就需要花费数小时(主要是手动编写代码和调试)。

甚至,如果没有 AI,他也不会决定采用目前已经取得成功的关键策略。

事实上,如果没有 AI 帮忙,我几乎不可能尝试进行这种数值搜索(可能会寻求理论渐近分析)。

由于用的是 GPT-5,OpenAI 研究员 Sebastien Bubeck(微软前 AI 副总裁 & 杰出科学家)也火速转发了一波,由此在𝕏社区引发热烈讨论。

除了纷纷回忆和陶神本人类似的经历,网友们无不感慨:

这标志着我们正在进入一个人类与机器共同探索的新时代。

所以,陶哲轩这次用 AI 解决了什么问题?AI 又在其中起了多大作用?

咱接着康康 ——

仅用 29 行 Python 代码帮助验证结果

陶哲轩这次要解决的是 MathOverflow(专业数学问答社区)上的一个问题:

序列 lcm (1,2,…,n) 是否是高度丰数的一个子集?

简单来说,这个问题其实就是在比对两个特殊的数列。

一个是最小公倍数数列,如:

  • n=2,lcm(1,2)=2

  • n=3,lcm(1,2,3)=6

  • n=4,lcm(1,2,3,4)=12

  • n=5,lcm(1,2,3,4,5)=60

  • ……

另一个是高度丰数数列 Highly Abundant Numbers (HA)。这类数有个特殊性质:其“所有约数加起来的和”,比任何比它小的数都大。

例如 1 的约数和是 1,2 的约数和是 3(大于 1),4 的约数和是 7(比 3、1 都大),所以它们是高度丰数。

由于发现前面算出来的最小公倍数们,居然刚好也是高度丰数,所以问题来了 —— 会不会所有的最小公倍数,永远都在高度丰数的行列里?(即子集)

对于这个问题,陶哲轩之前已经通过理论分析,得出答案是否定的。

不过要想完全证明这一点,还需要找到具体的数值参数,以便确凿地构建一个反例。

虽然方向很明确,但陶哲轩清楚,由于过程中需要繁琐的计算和参数搜索,所以这也算是一项“大工程”,人工就得吭哧吭哧干几小时。

而交给 GPT-5 后,一切都变得轻松了…… 仅通过自然语言对话,几轮沟通下来 AI 就帮忙解决了问题。

具体过程如下:

起初,陶哲轩尝试让 GPT-5 直接生成 Python 程序,来搜索这些反例的参数。

这样陶就可以自己跑代码、调整参数。

GPT-5 在思考了大约 1 分钟 19 秒后,也确实给出了一段很长的代码。

但实际运行后发现,生成的代码运行时间过长,且初始参数选择不当,最终会导致搜索的失败。

于是他选择转变策略,通过与 GPT-5 展开分步对话,来让它通过启发式计算来寻找可行的参数选项。

换句话说,他选择将一个大问题拆成多个小问题,然后在其本人的指导下,让 GPT-5 来逐个攻破。

几轮沟通下来,GPT-5 终于成功生成了符合要求的参数。

并且,为了确保结果可靠,陶还使用了由 GPT-5 生成的拥有 29 行代码的 Python 脚本进行独立验证。

在陶看来,这个脚本简洁明了,易于人工检查,且验证的数值结果与之前的启发式预测完全吻合。

from math import log

n = 200000; 
_j are the first 25 consecutive primes starting at 1.05*sqrt(n)
p = [
    479, 487, 491, 499, 503, 509, 521, 523, 541, 547,
    557, 563, 569, 571, 577, 587, 593, 599, 601, 607,
    613, 617, 619, 631, 641
]

_m found by the search (13 primes)
q = [
    187963, 187973, 187987, 188011, 188017, 188021, 188029,
    188299, 199931, 199933, 199961, 199967, 199999
]

sum_log_p = sum(log(x) for x in p)
sum_log_q = sum(log(x) for x in q)

 terms
sum_corr_p = sum(log(1.0 + 1.0/(x*(x+1))) for x in p)
sum_corr_q = sum(log(1.0 + 1.0/x)          for x in q)

gap_q_minus_p = sum_log_q - sum_log_p
rhs_budget    = sum_corr_p - sum_corr_q

print(f"sum_log_q - sum_log_p = {gap_q_minus_p:.12g}")
print(f"RHS budget            = {rhs_budget:.12g}")
print("Inequality (correct sign) holds?:",
      (gap_q_minus_p > 0) and (gap_q_minus_p < rhs_budget))

 you wanted the site sign, this is what you'd be checking:
gap_p_minus_q = -gap_q_minus_p
print(f"\nsum_log_p - sum_log_q = {gap_p_minus_q:.12g}")
print("Inequality (site sign) holds?:",
      (gap_p_minus_q > 0) and (gap_p_minus_q < rhs_budget))

综上,通过使用 GPT-5,陶哲轩最终完成了上述问题的否定证明。

而且他还特意提到,面对数学这类严肃课题,AI 这次竟然也没有犯幻觉这个“老毛病”。

我没有遇到幻觉或其他 AI 生成的胡言乱语的问题。

这不是陶神第一次用 AI 解决数学问题

事实上,作为顶尖数学大佬,这不是陶哲轩第一次用 AI 解决数学问题。

光是今年,量子位此前就有多篇介绍:

  • 9 月初,他将 GPT-5 用于半自动化文献检索,使 Erdos 问题 / OEIS 关联项目首次得到概念验证;

  • 5 月下旬,新人博主陶哲轩在油管手把手演示如何只用 GitHub Copilot 证明函数极限问题;

  • 5 月中旬,油管首秀用 AI 33 分钟“盲证”Magma 方程 E1689 蕴含 E2;

  • 3 月中旬,o3-mini 一眼识破并纠正了他的一个错误,然后在它的帮助下快速完成了一道数学题的解答;

  • ……

在陶哲轩看来,“人工智能或许短期内不会获得菲尔兹奖(数学界的诺贝尔奖),但它或许可以充当数学家进行证明的中介”。

当然,跳出数学领域,陶哲轩的打样无疑也在告诉我们:如何用 AI 相当关键。

One More Thing

关于 GPT-5,OpenAI CEO 奥尔特曼的最新表态正在引起热议。

GPT-5 被误解了!

一改往日高调姿态,他这次直接告诉大家,GPT-5 代表的是迭代改进,而非突然的范式转变。

也就是说,人们对 GPT-5 的预期过高了(也借此回应 GPT-5 直播出故障以及人们关于模型能力未达预期的抱怨)。

而且面对“何时实现 AGI”这一问题,其态度同样来了个大转弯 ——

相比以前直接说 AGI 2030 年前会实现,他这次变得更加谨慎,开始强调自己更关注安全和渐进式进步。

好好好,你小汁主打一个随机应变是吧(doge)。

参考链接:

  • [1]https://mathstodon.xyz/@tao/115306424727150237

  • [2]https://x.com/SebastienBubeck/status/1973977315572154383

  • [3]https://mathoverflow.net/questions/501066/is-the-least-common-multiple-sequence-textlcm1-2-dots-n-a-subset-of-t/501125

本文来自微信公众号:量子位(ID:QbitAI),作者:一水

陶哲轩用 GPT-5 解决数学难题:仅 29 行 Python 代码 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。