您的位置 首页 科技

“AI教父”辛顿最新观点:如何训练“善良”的AI?多模态聊天机器人已具备意识

辛顿对话周伯文全文作者/ IT时报记者 孙永会编辑/ 郝俊慧 孙妍如何训练“善良”的超级智能?年轻科学家又要如何前行?

辛顿对话周伯文全文

作者/ IT时报记者 孙永会

编辑/ 郝俊慧 孙妍

如何训练“善良”的超级智能?年轻科学家又要如何前行?

7月26日下午,2025年世界人工智能大会(WAIC 2025)“科学前沿全体会议”现场,图灵奖得主、2024年诺贝尔物理学奖获得者Geoffrey Hinton(杰弗里•辛顿)与上海人工智能实验室主任、首席科学家周伯文开展了一场尖峰对话,17分钟的思想碰撞中,“干货”满满。

这是77岁的辛顿首次来华,也是WAIC 2025最受关注的嘉宾之一。辛顿被称为“AI教父”“深度学习之父”,2012年9月他和学生伊利亚(Open AI前首席科学家)、埃里克斯共同发表的论文“用深度卷积神经网络进行ImageNet图像分类”,成为引爆此轮人工智能热潮的基础理论。

“当今的多模态聊天机器人已经具有意识”

在科学发现过程中,传统的单一模态分析往往难以全面捕捉复杂现象,尤其在跨学科领域的深度探索中更加显著。会议现场,上海人工智能实验室(上海AI实验室)发布并开源“书生”科学多模态大模型Intern-S1。Intern-S1融合了书生大模型家族的优势,在同一模型内实现了语言和多模态性能的均衡发展,并富集多学科专业知识,重点强化了科学能力,为首个融合专业科学能力的开源通用模型。

提及多模态大模型,辛顿则认为,当今的多模态聊天机器人已经具有意识。

周伯文:您认为当今的多模态和语言模型能发展出自己的主观体验吗?

Hinton:我认为关于它们是否具有意识或主观体验的问题,严格来说不是一个科学问题,而是取决于您如何定义“主观体验”或“意识”。我们大多数人对这些概念的理解都是完全错误的。就像人们可以正确使用词语,却对词语运作的理解完全错误。

我举一个日常词汇的例子来说明。想想“水平”和“垂直”这两个词。大多数人都认为自己理解它们的含义,但实际上他们的理解是错误的。假设我手里有很多小铝棒,它们朝向各个方向。我把它们抛向空中,它们翻滚、碰撞,然后我突然让时间静止。

展开全文

这时空中有很多铝棒。问题是:在垂直方向1度范围内的铝棒更多,还是水平方向1度范围内的铝棒更多?或者数量差不多?几乎所有人都说“差不多”,因为他们对词语运作方式的理解是错误的。实际上,水平方向1度范围内的铝棒数量是垂直方向的约114倍。这是因为“垂直”是非常特殊的方向,而“水平”则很普通。

这个例子看似与意识问题无关,但它说明:我们对词语运作方式的理解可能是完全错误的。同样,几乎每个人都对“主观体验”这类术语有着强烈但完全错误的认识。这不是真正的科学问题,而是源于我们对心理状态的错误认知,就会建立错误的模型,从而做出错误的预测。

所以,我的观点是,当今的多模态聊天机器人已经具有意识。

如何让AI变得善良?

“当前人类与AI的关系,恰似饲养一只可爱的小虎崽 —— 它长大后可能轻易超越人类。为了生存,要么消灭它,要么找到永久保护人类自身的方法。”在上午WAIC 2025主论坛上,辛顿所作的《数字智能能否取代生物智能?》主旨演讲中,他呼吁全球建立由各国人工智能安全研究所与国内研究网络组成的国际社群,培养不会从人类手中夺权的“好AI”。

那么,如何通过训练让AI变得聪明和善良呢?

周伯文:就在这次会议上,2024年图灵奖得主Richard Sutton 在您之前做了一个演讲,题目是《欢迎来到体验时代》。我认为他的意思是,当我们已经耗尽人类数据时,模型可以从自己的体验学习很多。您从另一个角度阐明了,Agent或多模态LLM,不仅从经验中学习,它们还可以发展出自己的主观体验。

所以我认为理查德今天没有过多触及这种从主观体验中学习的潜在风险。您想展开说说吗?如果Agent可以学习主观体验,这会给未来带来哪些潜在风险?

Hinton:大语言模型从我们提供给它们的文档中学习,从而学会了预测一个人会说的下一个词。一旦有像机器人这样在世界中的Agent,它们就可以从自己的经验中学习,而且我认为它们最终学到的,比我们多得多。我认为它们会有经验,但经验不是事物。而且经验不像照片,经验是你和一个物体之间的关系。

周伯文:所以,几天前当我们在IDAIS讨论前沿风险时,您提到了一种减少未来AI风险的解决方案,就是找到一种方法来训练AI的分离目标。例如,一个善良的AI,一个聪明的AI。您有一个理论……

Hinton:我不是那个意思。我的意思是,你会有既聪明又善良的AI,但如何训练它变得聪明和如何训练它变得善良是不同的问题。你可以有让它善良的技术和让它聪明的技术。它将是同一个AI,但会有不同的技术。所以,各国可以分享让它善良的技术,即使它们不愿意分享让它聪明的技术。

周伯文:我真的很喜欢这个想法,但对我们能在这方面走多远有些疑问。你认为会有某种通用的AI训练来使AI变得善良吗?这些方法可以应用于任何AI模型、任何智能水平?

Hinton:那是我的希望。它可能不是真的。但这是一种可能性。我认为我们应该研究这种可能性。

周伯文:我提出这个问题并不是因为我不喜欢这个想法,而是因为我想增强人们的意识,让更多人能在您提到的方向上进行更多研究。而且我想在这里做一个类比,来向您展示为什么我有这个疑问。

以物理学为例,当物体以低得多的速度运动时,牛顿定律是有效的。但当这个物体运动到更高的速度,接近光速时,牛顿定律就不再适用了,所以我们必须求助于爱因斯坦来获得更好的解决方案。这有点好笑,因为我正在向一位诺贝尔物理学奖得主讲解物理学101(大学物理入门课)。

Hinton:但这是一个错误。

周伯文:哦不,这不是错误。你绝对值得获得诺贝尔奖。

Hinton:他们真的很想在人工智能领域颁发诺贝尔奖,但他们没有这个奖项。所以他们拿了一个物理学的奖颁给人工智能(的科学家)。

周伯文:但我想用这个类比来说明一个观点,我认为对于不同层次的智能系统,善意约束可能需要改变。我不知道这是否正确,但我确实希望在这个房间里或在网上的那些聪明的年轻人,他们可以想出办法来实现这一点。

Hinton:是的,很有可能,随着系统变得更加智能,让它变得善良的技术也会发生变化。我们不知道。这就是我们现在需要对其进行大量研究的原因之一。

周伯文:作为一位成就卓著的人,您经常说,“我不知道”。我觉得这非常诚实和开明,我们都要向你学习。除了AI问题,我们现场还有一半来自不同科学领域的顶尖学者——量子物理、生物学等。今天我们齐聚一堂,正是因为相信AI与科学的交叉融合将带来突破。您如何看待用AI推动科学进步,或者反过来用科学促进AI发展?

Hinton:我认为人工智能对科学的帮助是显而易见的。显然,迄今为止最令人印象深刻的例子是蛋白质折叠,Demis Hassabis(DeepMind创始人)和John Jumper(DeepMind科学家)等人通过合理使用人工智能并付出大量努力,证明了这一点。这些非常聪明的人花了五年时间。在预测蛋白质如何折叠方面,我们(借助AI)可以做得更好。我认为这是一个早期的标志,表明在许多领域,人工智能都将改善科学。我听说了上海AI实验室的例子,在预测台风登陆地点和天气预报方面,人工智能可以做得更好一些。

周伯文:对,我们用AI模型做出来的结果,比基于PDE(偏微分方程系统)的传统物理模型表现更优。

坚持自己的直觉

“人工智能是年轻的事业,也是年轻人的事业。”对于青年科学家来说,如何选择正确的方向发力也是重要议题。

周伯文:在您卓越的学术生涯中,您不仅拓展了AI技术的疆界,更深刻影响了下一代科研工作者。我曾与许多比您更年轻的学者交流,他们都对您充满敬仰。在上海人工智能实验室,我们的研究人员平均年龄只有30岁,说明AI的未来属于年轻一代。

您的智慧之光正照耀着这些年轻的面孔。不知您是否愿意分享:对于AGI的下一代发展,您有何见解?或者,您愿意给这些年轻人一些加速成长的建议,一些他们能带回家、能自豪告诉父母、将来还会告诉子女的智慧箴言吗?

Hinton:我想最核心的建议是:若想做出真正原创的研究,就要寻找那些“所有人都可能做错”的领域。通常当你认为“众人皆错”时,经过探索最终会发现传统方法的合理。但这恰恰说明:你永远不该轻易放弃新思路,除非自己真正理解它为何行不通。即便导师否定你的方法,也要保持质疑。

坚持你所相信的,直到你自己明白为何它是错的。只是偶尔,你会继续坚持你的信仰,而它最终被证明是正确的。重大突破正是由此而来,它们从不属于轻易放弃之人。你必须坚持己见,即使他人并不认同。

有一个逻辑支撑这一观点:你要么拥有好的直觉,要么拥有坏的直觉。若你的直觉是好的,那你显然应该坚持它;若你的直觉是坏的,你做什么其实都无关紧要,所以你依然应该坚持自己的直觉。

排版/ 季嘉颖

图片/ WAIC

来源/《IT时报》公众号vittimes

本文来自网络,不代表冰河马新闻网立场,转载请注明出处:http://www.wqgzj.cn/38689.html

作者: wczz1314

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

13000001211

在线咨询: QQ交谈

邮箱: email@wangzhan.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部