诺奖得主、AlphaGo之父:AI远不如人类科学家,根本提不出有价值的猜想
【导读】去年10月,DeepMind联合创始人Demis Hassabis因开发AlphaFold以解决蛋白质复杂结构预测问题,而获得了诺贝尔化学奖;2016年,他和他的团队开发的AlphaGo战胜了人类围棋世界冠军李世石,自此声名鹊起;作为一个天才少年,他更是在13岁时就晋升为了国际象棋「大师」。
一直以来,Demis Hassabis都被认为是人工智能(AI)的风向标人物,作为一家顶级AI公司的CEO,他更愿意将自己视为一名科学家,称一生所做的一切都是为了追求知识,了解我们周围的世界,并将创造通用人工智能(AGI)视为他一生的目标。
在当前由大模型推动的AI浪潮中,他甚至主张不要急功近利,不要打破常规。他批评了他所认为的AI领域某些人的鲁莽态度,他把这些人比作「没有意识到自己手中拿着危险材料」的实验者。
日前,他被《时代》周刊评为了「2025年全球最具影响力百大人物」(TIME 100)之一,并接受了《时代》周刊驻伦敦分社记者Billy Perrigo的专访。
在采访中,他谈到了 AGI 的潜在「喜」与「忧」:喜在「治愈疾病、开发新能源,推动人类文明发展等」,忧在「被不法分子恶意使用、失去人类控制等」。他还表示,AGI的伦理和社会问题,如就业、隐私等,也需要得到更多关注。
他还毫不吝啬地分享了他的乐观看法,「我们将在这个人类最繁荣的世界里,带着AI将帮助实现的所有技术,遨游星际。」
他还认为,掌握新工具将赋予人类「超能力」,带来更好、更有意义的工作,同时淘汰部分平凡岗位。但当AGI能够胜任大多数任务时,新的问题随之而来:如何公平分配生产力提升的成果?以及,失去传统工作的意义后,人类如何重塑存在的目标?「这需要新的哲学思考」。
学术头条在不改变原文大意的前提下,对采访内容做了适当的精编和删减。如下:
AGI如果诞生,将会产生巨大的影响。你能为我描绘一下最好的情况吗?如果我们创造了AGI,世界会变成什么样?
我之所以一辈子都在研究AI和AGI,是因为我相信,如果操作得当、负责任发展,它将是有史以来最有益的技术。因此,我认为,从现在起往前推10多年,我们可以利用它来做的事情包括:利用AI治愈所有疾病,以及帮助开发新能源,无论是核聚变还是最佳电池,或是新材料,如新型超导体。我认为,当今社会面临的一些最大问题,无论是气候还是疾病,都将通过AI解决方案来解决。因此,如果我们再往前推10年,我认为乐观的看法是,我们将在这个人类最繁荣的世界里,带着AI将帮助实现的所有技术,遨游星际。
以气候问题为例。我认为,除了更多的技术,包括AI辅助技术(如新型能源等),我们没有任何其他方法可以解决这个问题。我不认为我们能迅速采取集体行动来解决这个问题。
换一种说法:如果我不知道像AI这样的变革性技术即将出现,我会对当今社会感到非常担忧。我坚信这一点。我之所以对未来50年的发展持乐观态度,是因为我知道,如果我们正确地构建AI,它将能够帮助我们解决一些最紧迫的问题。这几乎就像骑兵。我认为我们今天就需要这支骑兵。
你也一直强调要规避风险。你能描述一下最坏的情况吗?
最坏的情况,我想在科幻小说中已经说得很多了。我认为我最担心的两个问题是:如果使用得当,AI将是一项神奇的技术,但这是一项双重用途的技术,它将强大得令人难以置信。因此,这意味着潜在的坏人可以重新利用这种技术来达到潜在的有害目的。因此,作为一个领域和社会,我们面临的一个巨大挑战是,我们如何让好的行为者能够获得这些技术,从而做出令人惊叹的事情,比如治愈可怕的疾病,同时又限制可能的坏行为者获得同样的技术?这是一个很难解决的难题。第二件事是AGI风险本身。随着技术变得更加自主、更加基于智能体,技术本身也会带来风险,而这正是未来几年将要发生的事情。我们如何确保能够掌控这些系统、控制它们、解读它们在做什么、理解它们、设置正确的防护栏,而这些防护栏又不能被自我改进的高能力系统移动?这也是一项极其艰巨的挑战。因此,这是两个主要的风险点。如果我们能正确处理这两方面的问题,我想我们就能实现令人惊叹的未来。
但这并不是最坏的情况。最坏的情况是什么样的?
我认为,如果你弄错了,那么这些系统就会产生所有这些有害的用例,而这些用例的范围可能与我们试图做的事情相反--你可能最终没有找到治疗方法,而是用这些系统找到了毒素。因此,如果你颠倒了系统的目标,所有好的用例都会变成有害的用例。作为一个社会,这就是我一直支持国际合作的原因。因为无论系统建在哪里,无论以何种方式建造,它们都可以分布在世界各地。它们会影响到世界上几乎每一个角落的每一个人。因此,我认为,我们需要围绕这些系统的构建方式、我们赋予它们的设计和目标,以及它们的部署和使用方式制定国际标准。
在AI安全领域,有很多人都在谈论这些系统在多大程度上可能会寻求权力、具有欺骗性、试图剥夺人类的权力并摆脱人类的控制。你对这是否是默认路径,还是尾部风险有什么看法?
我的感觉是,风险是未知的。所以有很多人,我的同事,著名的图灵奖获得者,都站在这个论点的两边。我认为正确的答案应该是在中间的某个位置,也就是说,如果你看看这场辩论,辩论双方都有非常聪明的人。因此,这告诉我,我们对它的了解还不够多,无法真正量化风险。随着我们对这些系统的进一步开发,可能会发现要控制这些系统比我们想象的要容易得多,或者说比我们预期的要容易得多。很多事情都是这样的。因此,有一些证据表明,事情可能比一些最悲观的人所想的要容易一些,但在我看来,风险仍然很大,我们必须仔细研究,量化风险,然后尽可能有预见性地提前处理,而不是事后处理。
是什么让你夜不能寐?
对我来说,是国际标准与合作的问题,不仅是国家之间的合作,还有公司与研究人员之间的合作,因为我们正在迈向AGI的最后一步。我认为我们正站在这个风口上。也许我们还有5-10年的时间。有人说更短。我不会感到惊讶。这就像一个概率分布。但无论如何,它很快就会到来。我不确定社会是否已经做好了准备。我们需要考虑清楚这一点,同时也要考虑我之前谈到的这些问题,包括这些系统的可控性,以及这些系统的可访问性,并确保一切顺利。
你认为自己是科学家还是技术专家?你远离硅谷,来到伦敦。你如何定位自己?
我首先认为自己是一名科学家。我一生所做的一切都是为了追求知识,试图了解我们周围的世界。我从孩提时代起就痴迷于此。对我来说,打造AI就是我对如何解决这些问题的表达:首先打造一个工具,这本身就非常吸引人,是对智能和意识以及这些已经成为最大谜团的事物的一种陈述,然后它可以有双重目的,因为它也可以作为一种工具来研究你周围的自然世界,比如化学、物理和生物学。还有比这更令人兴奋的冒险和追求吗?因此,我认为自己首先是一名科学家,其次可能是一名企业家,这主要是因为这是做事最快的方法。最后,也许是一名技术工程师,因为归根结底,你不想只是在实验室里理论和思考问题。实际上,你想为世界带来实际的改变。
我想谈谈时间线的问题。奥特曼和Dario Amodei最近都给出了...
很近了,对吧?
奥特曼说他预计AGI会在特朗普任期内出现。Amodei则说最早在2026年就会实现。
部分取决于你对AGI的定义。因此,我认为,出于各种原因,人们在淡化这一定义,筹集资金,人们可能会出于各种原因这样做。我们的定义其实一直都是一致的:拥有人类所有的认知能力。实际上,我对此的测试是:AI能否在1900年代利用与爱因斯坦相同的信息量提出广义相对论?所以,这不仅仅是解决一个数学猜想,你能提出一个有价值的猜想吗?所以,我敢肯定,我们的系统很快就能解决其中一个「千年奖」。但是,你能提出一组像这样有趣的猜想吗?
听起来,一言以蔽之,这就是你所说的科学家和技术专家之间的区别。所有技术专家都在说:这是一个能比人类更好或更便宜地完成有经济价值的劳动的系统。
这种说法很好。也许这就是我对这部分内容如此着迷的原因,因为在历史上,我一直钦佩那些科学家,我认为他们才是真正推动知识向前发展的人,而不是让知识变得实际有用的人。显然,两者对社会都很重要。工程和科学都是如此。但我认为,现有的AI缺少这种假设的产生。
让我们具体问题具体分析。你认为我们离能为AI研究做出有意义贡献的自动研究员还有多远?
我认为还有几年时间。我认为编码助手已经相当不错了。到明年,我认为他们会非常出色。我们正在努力推进这项工作。Anthropic主要专注于此,而我们一直在做更多科学方面的事情。AI仍然不如最好的程序员能为操作系统设计出漂亮的结构。我认为这部分还很欠缺,所以我认为还需要几年的时间。
在Gmini模型中,你非常注重多模态性,不仅将语言空间作为基础,还将现实世界作为基础。与其他实验室相比,你们更注重这一点。这是为什么?
有几个原因。其一,我认为真正的智慧需要了解你周围的时空世界。这对你想做的任何真正的科学也很重要。我还认为,这实际上会让语言模型变得更好,而且我认为我们已经看到了一些这样的效果,因为你实际上已经把它建立在了真实世界的语境中。不过,事实上,语言本身已经走得比某些人想象的要远得多,也许我也会认为这是可能的。最后,这也是一个用例问题,因为我脑海中有两个用例,我们正在大力开发。一个是通用数字助理的概念,它能在日常生活中帮助你提高工作效率,丰富你的生活。它不只存在于你的电脑中,而是随身携带,可能是手机、眼镜或其他设备,而且一直都非常有用。要做到这一点,它需要了解你周围的世界,并处理你周围的世界。
其次,对于机器人技术来说,它也正是现实世界中机器人技术所需要的。它必须了解所处的空间环境。人类是多模态的,对吗?所以,我们在屏幕上工作。我们有视觉。我们有喜欢看的视频,有想创作的图像,还有想听的音频。因此,我认为AI系统需要反映出这一点,才能与我们进行最充分的互动。
Signal总裁Meredith Whittaker对你刚才描述的万能智能体提出了批评,认为你并不是凭空得到这种帮助。作为交换,你需要放弃大量数据。你必须让它获取你生活中的几乎所有信息使其有用。谷歌是一家收集个人信息以提供有针对性广告的数字广告公司。你如何看待智能体对隐私的影响?
Meredith指出了这一点。我喜欢她在Signal所做的工作。我认为,首先,这些东西都需要选择加入。
但我们选择了各种东西。我们选择数字追踪。
所以,首先,这是你的选择,当然,人们会这么做,显然是因为它很有用。我认为,只有当你完全相信这个助手是你的,它才会起作用,对吗?它必须值得你信任,因为它就像现实生活中的人类助手一样,一旦他们了解你,他们就真的很有用。我的助理们比我自己还了解我,这就是为什么我们的团队合作得这么好。我想,这就是你想要的数字助理的实用性。但是,你必须确保它真的是孤立的。我们拥有世界上最优秀的安全人员,他们负责这些工作,以确保它能保护隐私,甚至在我们的服务器上也能加密,以及所有这些技术。我们正在努力研发这些技术,以便在我们的助理产品(Project Astra)准备就绪时使用。我认为这将是消费者的决定,他们会希望使用保护隐私的系统。我认为边缘计算和端侧模型在这里也将非常重要,这也是我们如此关注小型、高性能、可在单个设备上运行的模型的原因之一。
我不知道你认为还要过多久,我们才能开始看到这些东西对劳动力市场的重大影响。但如果或当这种情况发生时,将会造成巨大的破坏,对吗?你有应对这种混乱的计划吗?
我和很多经济学家谈过这个问题。我认为,首先,该领域的专家,经济学家和其他人,需要做更认真的工作。当我与经济学家交谈时,我不确定这方面的工作做得是否足够。我们正在建立智能体系统,因为它们会更有用。我认为,这也会对工作产生一些影响,尽管我怀疑它会带来其他工作,现在还不存在的新工作,即你要管理一组智能体,他们在做一些琐碎的事情,也许是一些背景研究,等等,但你还是要写出最终的文章,或提出最终的研究论文。或提出研究的想法。比如,你为什么要研究这些东西?
所以我认为在下一阶段,人类将被这些神奇的工具赋予超能力,前提是你知道如何使用它们,对吧?所以会有颠覆,但我认为会更好,会有更好的工作和更充实的工作,然后更平凡的工作就会消失。过去的科技就是这样。但是,当AGI可以做很多很多事情的时候,我认为这是一个问题:我们能否在全世界范围内公平、广泛地分配生产力的提高?之后还有一个问题,就是意义和目的。这就是下一个哲学问题,我认为我们今天需要一些伟大的新哲学家来思考这个问题。
我在2022年采访你时,我们谈到过这个问题,你说过「如果你身处一个极度富足的世界,不平等的空间和方式就会减少。所以,如果AGI愿景得以实现,这也是它的积极后果之一。」但在那样的世界里,仍然会有人控制财富,有人没有财富,工人也可能不再有工作。你能详细阐述一下你的愿景吗?
我个人并没有花很多时间在这个问题上,尽管我可能越来越应该这样做。同样,我认为顶尖的经济学家也应该对此多加思考。我觉得,彻底的富足真正意味着你解决了核聚变和/或最佳电池和/或超导体等问题。假设你在AI的帮助下解决了这三件事。这意味着能源的成本基本上应该为零,而且是清洁和可再生的,对吗?突然间,这意味着你可以解决所有的用水问题,因为你只需要有海水淡化厂,这很好,因为那只是能源和海水。这也意味着制造火箭燃料......你只需使用类似的技术,从海水中分离出氢和氧,对吗?突然间,资本主义世界的许多基础都不复存在了,因为其基础是能源成本、资源成本和资源稀缺性。但是,如果你现在已经打开了太空,你可以开采小行星和所有这些东西,这需要几十年的时间来建设基础设施,那么我们就应该进入这个新的经济时代。
我认为这根本没有解决不平等的问题,对吧?开采这些小行星仍然可以获得和积累财富。土地是有限的。
所以现在有很多东西都是有限的,这就意味着最终是一场零和游戏。我所考虑的是一个不再是零和游戏的世界,至少从资源的角度来看是这样。那么还有其他问题吗?也许吧。因此,这些问题必须在政*上加以解决。但至少你已经解决了一个主要问题,那就是,在我们所处的这个资源有限的世界里,一切最终都会变成零和。这不是唯一的根源,但却是冲突的主要根源,也是不平等的主要根源。
这就是我所说的彻底的富足。我们不再处于一个资源有限的零和世界。但我敢肯定,这可能需要一种新的哲学。
本文转自学术头条,若二次转载联系原作者。
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。