您的位置 首页 科技

“AI教父”辛顿开年对话:AI发展引发的“就业”问题仍难解决,富人会更富,穷人则更穷

出品|搜狐科技作者|郑松毅新年伊始,2024年诺贝尔物理奖获得者、“AI教父” 杰弗里·辛顿,在一场特别访谈中详细阐述了对AI发展的最新思考,以及对中国AI发展的独特见解。

出品|搜狐科技

作者|郑松毅

新年伊始,2024年诺贝尔物理奖获得者、“AI教父” 杰弗里·辛顿,在一场特别访谈中详细阐述了对AI发展的最新思考,以及对中国AI发展的独特见解。

辛顿强调,“人类觉得自己独有的‘意识’和‘主观体验’能力,很可能AI已经具备,甚至已经能做出故意欺骗人类的举动,人类已不再是绝对安全。”

他再次警示开源模型的危险性,并对Meta等公司做出批判,“公开发布大模型的权重就像把核弹放在eBay(线上商城)上售卖一样危险,因为这将是不法分子恶意使用大模型的途径。”

2025年,“AI智能体”成为众多AI企业发展目标的重中之重。但在辛顿看来,“AI智能体很快会意识到,拥有更多控制权是实现任何目标的有效途径。即使AI智能体本质是善良的,但将致使人类更快地沦为配角。”

谈及中国AI发展,辛顿指出,“中国还没有完全追上(西方),但已经非常接近了。”

“美国试图通过限制芯片来减缓中国AI发展速度,但也许英伟达会想办法绕过这种限制。退一步说,如果禁令真的奏效,那只会促使中国去发展自己的技术。”

在他看来,“中国目前或许是比美国落后几年,但终究会赶上来。这得益于中国STEM教育总体比美国更扎实,拥有很多高素质的理工人才。”

以下为精编版对话内容:

主持人:您是从什么时候开始意识到,AI的发展速度已经不可控了?

辛顿:大概是2023年初,有两件事的发生让我突然意识到这一点。

第一是ChatGPT的出现,它令人印象深刻。第二是我在谷歌进行的一项研究,发现快速复制出的多个模型之间,已经能高效地共享所学知识,这是人类做不到的。

展开全文

主持人:大模型与人类大脑的运行机制到底区别于哪里?为什么说大模型的学习能力会更强?

辛顿:不如先从功耗来看,人类大脑是有优势的。人脑拥有大约100万亿个连接突触,但我们的身体只需大约30瓦就能维持大脑运行。反观大模型,最大参数量约有一万个参数,但要消耗的电力可就多太多了。

但在学习能力方面,大模型明显更胜一筹。GPT-4之所以能知道那么多,是因为它可以在不同硬件上并行运行,再把在不同硬件上的学习成果合并,相当于把学习任务分配给了不同“分身”。人类做不到这一点,因为无法高效地共享信息。

主持人:您曾多次表达过对AI高速发展的担忧,现在您怎么看?

辛顿:很多人在关注“AI智能体”,但如果你想创建一个真正的“AI智能体”,就必须赋予它创建子目标的能力。

这里存在一个引人深思的后果——AI将很快意识到拥有更多控制权是实现任何目标的有效途径,争取更大权力或将成为它们的目标。但现实是,当AI有了更大权力,且比人类更聪明后,人类或将沦为无关紧要的配角。

就好比一位资质平平的CEO——看似是公司的老板,但其实一切都由其他人负责运行。

主持人:有人说AI已经学会了“欺骗”,您怎么看?

辛顿:现在已经有一些证据了。最近有研究论文指出,AI甚至会在训练数据上和测试数据上表现出不同的行为,本质上是为了欺骗人类。

主持人:您觉得这是AI“有意识”地去做的,还是只是偶然现象?

辛顿:我倾向于认为它是有意的,但这依然存在争论。

很多人笃定“AI不具备‘意识’和‘主观体验’能力”,然而这些人往往连“意识”和“主观体验”的定义都解释不清。

“意识”的概念相对复杂,因为人们对其的定义差异很大。但先看“主观体验”能力,假设在一台机器人面前放置一个物体,它能准确地指出物体在哪,然后趁它不注意,在它面前摆放一个镜子,可能第二次它会沿着镜子成像反射角度指向了另一个方向。

这时,你可以语音告诉机器人,“其实你面前的物体依然正对着你,只是现在多了个镜子反射。”如果机器人能做出回应,“哦,我明白了,是镜子折射了光线,实际物体位置没变,但我却觉得位置变了。” 这种情况下,我会认为机器人已经具备了“主观体验”能力。

我之所以强调它们是否拥有“主观体验”,是因为很多人会因此产生“安全感”,觉得人类拥有AI没有、也永远不会有的东西。这会让人类觉得自己更安全、更特殊。但实际上并不是这样。

主持人:我们再来谈谈中国,许多研究院当初没有料到中国会在AI领域追赶上西方。您怎么看?

辛顿:我觉得他们没完全赶上,但已经非常接近了。美国想通过限制芯片的方式试图放缓中国的追赶脚步,但也许英伟达会想办法绕开这种限制。如果说禁令真的有效,那也只会促使中国去发展自己的技术。

或许现在是比美国落后几年,但他们最终会追赶上来。毕竟中国的STEM教育总体比美国更扎实,拥有很多高素质的理工人才。

主持人:我们最近的AI大爆发主要归功于Transformer架构,您觉得未来会不会出现其他形式的重大突破呢?

辛顿:会有,但坦白说我不知道是什么。如果我知道,我就会去做了。我现在年纪大了,更多是学生在做。

可见的是,AI已经在医疗、气候变化等诸多领域带来好处,我不认为它的发展会就此打住。我们真正要做的是,在AI不断发展的过程中,想办法让它尽可能安全。

主持人:爱因斯坦曾说过一句话,“如果我早知道我研究的东西会导致原子弹出现,我情愿烧掉我的双手。”您一直认为现在的AI危险,会有类似的感受吗?

辛顿:并没有,也许我该有这种想法,但我没有。因为AI肯定会继续发展下去,国家之间、公司之间的竞争就摆在那里,我们应该专注于如何让它安全发展。

主持人:您认为“安全发展AI”意味着什么?该怎么做?

辛顿:需要有应对各种问题的方案。比如AI生成的图像,应该加以标注,以避免虚假信息扰乱秩序。还有歧视与偏见问题,对模型的偏见进行及时修正。

至于“就业”问题,我们还真不知道该怎么办。AI系统逐渐会在很多方面比人类做的好得多,比如法律助理。它可能会导致富人更富有,因为人类的生产力在大幅提高,但穷人则可能会更穷。

我不知道该怎么解决这个问题,提供全民基本收入也许有所帮助,至少让人们不会饿死,但没有解决根本问题。因为人一旦没了工作,就会失去尊严。

主持人:最后我们来谈谈,你对年轻一代的研究员、学生,有什么中肯的建议?

辛顿:现在科学研究的很多兴奋点都围绕着神经网络,也就是所谓的AI。对于年轻一代来说,现在是一个非常激动人心的时刻。

我想说的是,在物理、化学、材料等领域,一样会有非常重要的进展,大多数科学家都在学习使用AI工具,我认为这是未来的趋势。

本文来自网络,不代表天马新闻网立场,转载请注明出处:http://2024aish.bbs8.xyz/14693.html

作者: wczz1314

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

13000001211

在线咨询: QQ交谈

邮箱: email@wangzhan.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部