欢迎光临散文网 会员登陆 & 注册

深度学习之父Hinton首次公开警告AI风险:人类终结已近在眼前

2023-05-05 13:06 作者:每月常照阿伯  | 我要投稿

ChatGPT对Jeffrey Hinton访谈的要点总结:

- Jeffrey Hinton是深度学习的先驱,开发了支撑AI的基本技术,例如反向传播。

- 他认为计算机模型可能以一种完全不同的方式从大脑学习,而不是使用反向传播。

- 反向传播是一种算法,可以训练神经网络,通过调整权重来最小化误差。

- 反向传播可以用于语言模型和自然语言处理。

- 特征检测器是一种用于检测图像中简单特征的算法,例如边缘。


00:05:26

- Hinton首次公开警告AI风险,认为人类终结已近在眼前。

- 视频中讲解了神经网络中的反向传播算法,用于调整权重以提高准确性。

- 反向传播算法可以应用于大型语言模型,帮助其从海量数据中获取知识。

- Hinton认为反向传播算法可能是一种比现有学习算法更好的学习算法。


00:10:47

- 数字计算机比人类更擅长学习,这是一个巨大的主张,但也是我们应该害怕的事情。

- 如果计算机是数字的,可以有很多副本相同的模型在不同的硬件上运行,它们可以查看不同的数据,但模型完全相同,这意味着它们可以相互交流并且同意改变权重的平均值。

- 数字计算机可以更快地学习更多东西,可以立即互相传授,但这也意味着它们可以学到更多,这可能会带来风险。

- AI已经可以做简单的推理,这是我们仍然更好的领域,但是AI正在用智商做一些明智的推理。

- 如果比我们聪明的AI可以操纵人们,我们可能不会意识到发生了什么,这可能会带来风险。


00:16:51

- 政治体系崩溃,无法决定世界更安全

- AI可能会被用于制造杀人机器人士兵

- 需要解决AI的对齐问题,确保它们做对人类有益的事情

- AI可能会有自己的动机,需要关注

- 如果赋予AI发送子目标的能力,可能会导致问题

- 人类是智能进化的过渡阶段,需要生物智能来进化数字智能


00:22:12

- Hinton认为深度学习可以让机器更快地学习和直接体验世界,但这也可能导致人类终结。

- Hinton提出了数字智能的永生,但这并不适合人类。

- Hinton认为停止AI进步可能是明智的,但这不可能发生,因为各国之间存在竞争。

- Hinton认为谷歌在开发AI方面非常负责任,但在资本主义制度中,竞争不可避免。

- Hinton希望美国和中国能够合作,试图阻止AI的发展。

- Hinton认为数字智能和人类智能是不同的智能形式,虽然数字智能可以模仿人类,但在内心深处不同。

- Hinton认为提问是人类最重要的能力之一。

- Hinton没有具体预测到2023年的事情。


00:27:20

- Hinton博士警告AI风险,我们需要提出更多问题并阻止AI接管我们的控制权

- 多模态模型将比仅基于语言的模型更聪明,但需要更多数据

- AI只能自学我们告诉它们的模型,但一旦他们开始进行内部推理,他们将变得更聪明

- AI缺乏内部推理的原因是因为他们是从不一致的数据中训练出来的

- 人类进化的每一部分都是由思想实验驱动的,AI也将能够进行思想实验


00:32:44

- 语义和对世界的基础是相关的语义和可解释性问题

- 语言模型已经接管,我们现在注定要在没有语义或没有现实基础的情况下前进

- 神经网络可以做到语义理解,但这不是一个充分的标准

- AI 技术会使很多工作更有效率,生产力会大幅提高

- 技术的发展会导致社会变得越来越暴力,需要考虑如何保持对技术的控制

- 深度学习之父 Hinton 坚持自己在卡希尔和其他公司的投资

- 技术应该是好的,但需要解决政治问题,比如就业

- 人们正在开始倾听对 AI 技术的危险警告


00:38:39

- Hinton认为在70年代和80年代研究人工神经网络是完全合理的

- 他认为之前并没有预见到现在深度学习的发展

- Hinton认为AI风险是一场生存危机,还有很长的路要走

- 他对自己所做的事情没有任何遗憾

- 感谢杰弗里加入他们




Claude对Jeffrey Hinton访谈的要点总结:

1. AI可能会导致大规模失业,这会给社会带来巨大动荡。应对方法可以是推出基本工资等政策来保障民生。

2. 未来5-10年,AI会有突破性进展,特别是多模态模型会更加智能。AI发展到可以进行复杂的内部推理和思想实验时,会真正威胁人类生存。

3. Jeffrey Hinton个人认为AI安全是一个严重问题。研究者和公司应采取措施确保AI可解释性和易控性,避免失控。但由于商业竞争和国家利益,AI的发展势不可挡。

4. 如果可以重选,Jeffrey Hinton不会改变选择AI这个研究方向。70-80年代当时并没法预见AI会带来如此之大的安全隐患。AI研究本身是必然的,只是后来出现了意料之外的负面影响。

总的来说,Jeffrey Hinton认为AI带来的机遇和挑战并存。我们应努力扩大前者,控制后者。但由于AI的发展已经不可阻挡,我们最终还是需要依靠政治和社会手段来应对其负面影响。AI研究者也有责任推动建立相关规范和标准。 


以下为访谈原字幕:

大家好,

欢迎回来希望你们吃得愉快

我的名字是

麻省理工学院技术评论 AI 的高级编辑 Will Douglas Heaven

我想我们都同意,

不可否认的是,生成 AI 是目前的事情,

但创新确实如此 不要停滞不前,

在本章中,我们将看看

已经在推进的尖端研究,并询问下一步是什么,

但让我们开始

我想介绍一位非常特别的演讲者,

他将以虚拟方式加入我们

Jeffrey Hinton 是

多伦多大学的名誉教授,直到本周才成为谷歌的工程研究员,但周一他宣布 10年后他将卸任

Jeffrey 是现代人工智能领域最重要的人物之一,

他是深度学习的先驱,

开发了一些

我们今天所知道的支撑 AI 的最基本技术,

例如反向传播

允许机器学习

这种技术的算法 它是今天

几乎所有深度学习所

依赖的基础

2018 年 Jeffrey 获得了图灵奖,通常被称为

计算机科学诺贝尔奖与 yanlokan 和

yoshiya bengio

他今天和我们一起讨论智能

意味着什么以及将

其构建到机器中的尝试将带我们到哪里

Jeffrey 欢迎来到 mtech

谢谢你,我想这几天你的一周过得很忙

10 分钟太可怕了,

因为我的电脑死机了,我不得不

找到另一台电脑并将其连接起来,

我们很高兴你回来了,这是

我们不

应该与观众分享的技术细节,

好吧,你太棒了”

很高兴你现在可以加入我们 我的意思是

你这周从谷歌辞职的消息到处都是 做出

这样的决定的原因之一是我已经 75 岁了,

我不像以前那样擅长做技术工作,因为

我的记忆力不如以前了,当我

编程时我忘记了做事,所以是

时候了 等一下,

最近我对大脑和我们正在开发的数字智能之间的关系改变了很多想法,

所以我曾经认为

我们正在开发的计算机模型

不如大脑 目的是

看看你是否可以

通过了解过去几个月

改进计算机模型所需的内容来更多地了解大脑

我完全改变了我的想法

我认为计算机模型可能

以一种完全不同的方式

从大脑他们正在使用反向传播,我认为大脑

可能不是,

有几件事让我得出了

这个结论,但其中之一是

gpt4 之类的东西的性能

所以让我非常想谈谈

gpt4 的要点 等一下,让

你知道回到我们都

理解你

正在提出的论点,并告诉

我们一些关于反向

传播是什么,这是

在 1980 年代与几位同事开发的算法

嗯,许多不同的小组发现了反向

传播,

嗯,我们所做的特别的事情就是使用它,

嗯,并表明它可以开发出良好的

内部表示,奇怪的是,

我们通过

实施一个微型语言模型来展示

它的嵌入向量,而这些向量只有

六个组件 训练集是

112 个案例,

嗯,但它是一个语言模型,它

试图预测

我们符号流浪中的下一个术语,

大约 10 年后,Joshua Benjo 使用

基本相同的网络并将其用于

自然语言,它表明它实际上

适用于自然语言 语言,如果你把

它做得更大,

嗯,

但传播的方式,

嗯,我可以给你一个粗略的解释,嗯,知道

它是

如何工作的人可以

坐下来,对我呈现的方式感到自鸣得意和大笑

没关系,因为

我有点担心,

嗯,

想象一下你想要检测鸟类

和图像,

所以图像让我们假设它是一个 100

x 100 像素的图像,即 10 000

像素,每个像素是三个通道

RGB,所以是 30 000 数字

代表图像的每个像素的每个通道的强度

现在思考计算机

视觉问题的方式是我如何将这 30

000 个数字转化为关于

它是否是一只鸟的决定

并且人们尝试了很长时间

这样做,他们不是很擅长,

嗯,但这里是你如何做的建议

你可能有一层特征

检测器来检测非常简单的

特征和图像,例如

边缘,所以

特征检测器可能有很大的

正权重 到一列像素

然后大负权重到

相邻列大单元格

所以如果两列都被打破它不会

打开如果两种颜色都是暗淡的我们不会

打开但如果一侧的列是

明亮的并且 另一边的柱子

很暗,它会变得非常兴奋,那是

一个边缘检测器,

所以我刚刚告诉你如何

通过有一

列大的正向方式手动连接一个边缘检测器,所以在它旁边

不会称它们为大 负权重,

我们可以想象

在整个图像中检测不同方向和不同比例的边缘的一大层,

我们需要相当多的负权重,

而在图像中,你的意思只是

形状的一条线边缘

inte 密度从

亮变为暗的空间,

嗯,是的,那么我们可能在其

上方有一层特征检测器,用于

检测边缘的组合,

例如,我们可能有一些东西可以

检测到两个边缘,join join at a

fine 像这样的角度,

嗯,所以它对这两个边缘中的每一个都有很大的正权重

,如果这两个边缘

同时存在,它就会兴奋起来

,这会检测到

可能是鸟嘴的东西,但它可能不会,但是

它可能是一个嗡嗡声,你也可能在

那个层有一个特征检测器,它

会检测到一大堆

排列成一个圆圈的边缘,嗯,

这可能是一只鸟眼,它

可能是各种各样的其他东西,它

可能是一个旋钮 冰箱之类的东西

然后在第三层你可能有一个

特征检测器来检测这个

潜在的喙并检测潜在的

眼睛并连接起来所以它就像

一个眼睛上的喙在正确的空间关系中

彼此并且如果它 看到上面

写着啊,这可能是一只鸟的头

,你可以想象,如果你一直这样接线,

你最终可能会有一些东西

可以检测到一只鸟,

但是用手把所有这些接线起来,

很难决定

应该连接什么

权重应该是多少,但这会

特别困难,因为你希望

这些中间层

不仅适用于检测鸟类,而且

适用于检测各种其他事物,

因此

或多或少不可能将

其连接起来 手工

所以反向传播的工作方式是

你从随机权重开始所以

这些特征检测器完全是

垃圾

然后你放入一张鸟的图片并且

在输出它说像0.5它是一只

假设你只有鸟或长

然后你问自己以下

问题

我怎么能改变网络中的每个权重

嗯网络中连接的每个权重

所以不是说

0.5 它说 0.501 它是一只鸟

1.499 它不是

而且你' 我们改变了方向的权重,

这将使它更有可能

说一只鸟是一只鸟,除非

你说一只非鸟是一只鸟

,你只是继续这样做,这就是

反向传播反向传播

实际上是你采取的方式

你想要的是

一只鸟的概率和

它目前得到的是

一只鸟的概率 0.5 之间的差异你如何

处理这种差异并

通过网络向后发送它

以便你可以计算每个

特征 在网络中检测到

您是否希望它更活跃或

更不活跃,一旦您

计算出如果您知道您希望

特征检测器更活跃一点,

您可以增加来自特征的权重

在标记器中检测到

活动的

并且

可能将一些负权重用于特征

检测下面关闭的层

现在你有一个更好的检测器

所以反向传播只是

通过网络向后传播以

确定每个特征检测器是否

你想要一个 多一点活跃或少一点

活跃

谢谢你我可以证明

这里的观众中没有人微笑着

认为这是一个愚蠢的解释

嗯所以让我们快进很多

你知道这项技术基本上

表现得非常好 在 image net 上,

昨天我们有来自 meta 的 Joe alpino

展示了图像检测已经

走了多远,它也是

支撑大型语言模型的技术,

嗯,所以我现在想谈谈

这个技术,你最初

认为它几乎就像一个 对

生物大脑可能做的事情的近似性很差 是的,结果

证明做了一些

我认为让你震惊的事情,

特别是在大型语言

模型中,所以和我们谈谈,

嗯,为什么你

对今天的大型语言模型的那种惊奇

已经完全排序了 几乎颠覆了

你对一般反向传播

或机器学习的看法,

所以如果你看一下这些大型语言

模型,它们有大约一万亿个

连接

,像 gpg4 这样的东西比我们知道的更多,

它们对一切都有某种常识性知识

所以他们知道的可能是人的一千倍,

但他们有万亿的联系,

而我们有 100 万亿的联系,

所以他们比我们更善于

从一万亿的联系中获取大量知识

我认为这是因为反向

传播可能是一种

比我们现有的学习算法好得多的学习算法,

你能定义不可怕吗,

是的,我绝对想了解

可怕的东西,但你所说的更好是什么意思,嗯,

它可以包含更多信息

只有几个连接,我们将

一万亿定义为只有几个

可以,所以这些数字计算机

比人类更擅长学习,

嗯,这本身就是一个巨大的主张,

嗯,但你也争辩说这是

我们应该害怕的事情 那么

你能不能带我们完成论证的那一步

是的,让我给你一个

单独的论点,那就是

如果计算机是数字的,这涉及

非常高的能源成本和非常仔细的

制造,

你可以有很多副本 相同的

模型在不同的硬件上运行,它们

做完全相同的事情,它们可以查看

不同的数据,但模型

完全相同,这意味着

假设您有 10,000 个副本,

它们可以查看 10,000 个不同的

数据子集,

并且无论何时 他们中的一个学习

所有其他人都知道的任何东西其中

一个想出如何改变

权重所以它知道它的状态它可以

处理这些数据

他们都互相交流并且

他们都同意改变权重

的平均值 他们所有人都想要

,现在

这 10000 个东西正在非常有效地相互通信,

这样他们就能看到

比一个代理多一万倍的数据,

如果我学习了很多关于

量子力学的东西,人们就做不到 我想让你知道

所有关于量子力学的东西,

让你理解它是一个漫长而痛苦的过程

所以我们有数字计算机,可以

更快地学习更多东西,它们

可以立即互相

传授,就像你

知道

这里房间里的人是否可以立即将

他们头脑中的东西转移

到脑海中一样,

但为什么这很可怕

好吧,因为他们可以学到更多,

他们可能会举一个医生的例子

,想象你有一个

看过一千个病人的医生

和另一个看过一

亿病人的医生,

如果他不太健忘的话,你会期望医生有 1 亿病人

注意到数据中的各种趋势,

如果您只

看过一千名患者,

您可能只看过一名患有

某种罕见疾病的患者,而

其他医生已经看过 1 亿人,

但您可以想像 找出

有多少患者,但是很多,

所以我们会看到各种

规律性,这些规律性

在小数据中并不明显

,这就是为什么可以

通过大量数据获得的东西可能会看到

我们永远不会看到的结构化数据,

并且 但是然后带我到我

应该害怕的地步

虽然

好吧如果你看看gpt4

它已经可以做简单的推理我的

意思是推理是我们

仍然更好的领域

但是前几天我对gpt4印象深刻

做一些常识性的推理,

我认为你做不到,所以

我问了它

黄色油漆会在一年内褪色成白色,

所以如果我想让它们在两年内全部变成白色,我该怎么办,

它说你应该把蓝色

房间漆成黄色,

这不是自然的解决方案,但它确实

有效,是的,

嗯,

这非常令人印象深刻 感觉

推理是一种

很难让 AI 使用符号 AI 来做的事情,

因为你必须理解什么是什么,什么是

褪色意味着它必须

通过时间的东西来理解

所以他们正在用智商做一些明智的

推理。

大约

80 或 90 左右,

我的一个朋友说,就好像

一些基因工程师说我们

要改良灰熊,我们已经将

它们改良到

65 的智商,它们现在可以说英语了,

它们 它们对各种各样的事情都非常有用,

但我们认为我们可以将

智商提高到 210。

我的意思是我当然有,我相信很多

在与

这些最新的聊天机器人互动时都有过这种感觉,你 我知道

后背和脖子上长了一些毛发,这是

一种不可思议的感觉,但你知道,

当我有这种感觉时,我

很不舒服,我只是合上笔记本电脑,所以是的,

但是

嗯,这些东西会

通过阅读那里所有的小说从我们身上学到的

曾经和马基雅维利曾经写过的所有东西,

嗯,

如何正确地操纵人们,

如果他们比我们聪明得多,

他们就会很好地操纵

我们,你不会意识到发生了什么,

你会像两个人一样 - 岁的

孩子被问到你想要豌豆

还是花椰菜并且没有意识到

你不必拥有任何

一个嗯你会很容易操纵

所以即使他们不能直接拉动

杠杆他们 当然可以让我们拉

Divas 事实

证明,如果你可以操纵

人们,你可以入侵华盛顿的一座建筑物,而

无需自己去那里,

非常好,是的,那是

我的意思是,如果这个词好吧,这是一个非常

假设的世界,但如果有 如果没有

坏人,你知道那些怀有恶意的人,

我们会安全吗?

我不知道,嗯,会

比在一个

人们怀有恶意、

政治体系如此崩溃以至于我们

甚至无法决定不去的世界里更安全 把突击

步枪给十几岁的男孩,

嗯,如果你不能解决这个问题,

你将如何解决这个问题我的

意思是我不知道我希望

你会有一些想法,就像

这样一个我 意思是除非我们一开始没有说

清楚我的意思是你

想说出来这个

嗯你感觉更舒服做

你知道没有它

在谷歌上有任何反吹是的嗯

但是你说出来 它但从

某种意义上说,如果我们

没有你知道的行动或我们做什么

我的意思是当我们本周很多人都在

听你说话时

我们应该怎么做我

希望它像气候一样 改变

你可以说的地方,如果你有半个大脑,

你就会停止燃烧碳,

嗯,很清楚你应该怎么做,很

明显,这很痛苦,但必须

要做,

呃,我不知道有什么解决方案

可以停止 这些东西接管

了我们真正想要的东西,我不

认为我们会停止开发

它们,因为它们非常有用,它们

将在医学和

其他所有方面都非常有用,

所以我认为没有太多

停止开发的机会我们想要的是

确保即使

他们比我们聪明,

嗯他们也会做

对我们有益的事情,这被称为

对齐问题,但我们需要尝试

在一个 世界上有坏

演员想要制造杀人的机器人士兵

,这对我来说似乎很难,所以我很

抱歉,我拉响了警报,

说我们必须为此担心,我

希望我过得愉快 我可以推动简单的解决方案,

但我没有,但我认为

人们聚在一起

并认真思考并看看是否

有解决方案非常重要目前尚不清楚是否有

解决方案所以我的意思是与我们谈谈我的意思是

你 度过了你的职业生涯

嗯你知道这项技术的技术细节

没有技术

修复为什么我们不能建立护栏

或任何使他们学习更差的东西或者呃

你知道限制他们可以

交流的方式如果那是两个字符串

你你的论点我的意思是我们正在

尝试做各种地址

但是假设它确实变得非常聪明

这些东西可以正确编程他们可以

编写程序并假设你给他们

执行那些

我们肯定会做的程序的能力

嗯,

聪明的东西比我们聪明,

所以

你知道想象一下你两岁的孩子

说我爸爸做我不喜欢的事情

所以我要为我爸爸能做什么制定一些规则

你可能会想出如何

生活 这些规则仍然可以去

你想去的地方

是的,

但是似乎仍然有一个步骤,

这些智能机器以

某种方式让你知道

他们自己的动机是的,这是一个

很好的观点,所以

我们进化了,

因为我们进化了我们 有一些

我们发现很难关闭的内在目标,

比如我们尽量不伤害我们的身体,

这就是痛苦的意义,嗯,

我们试着吃饱,这样我们就可以

养活我们的身体,

嗯,

我们试着复制尽可能多的

自己 可能,也许不是

故意的,但我们已经

连接起来,所以很高兴

制作我们自己的许多副本,

这一切都来自 Evolution,

重要的是,如果你能关掉它,我们就不能

关掉它,嗯,

你不 做得很好,就像有一个

很棒的团体叫震颤教徒,他们与贵格会

教徒有关,贵格会教徒制造

漂亮的家具,但不相信

性,现在已经

没有他们了,

不,

所以

这些数字智能没有进化,

我们创造了 他们,所以他们

没有这些内在的目标,

所以问题是,如果我们能把目标放在

里面,也许一切都会好起来的,但我

最担心的是,

迟早有人会给

他们带来创造他们的能力的能力 自己的子

目标 事实上,他们几乎已经有了

调用聊天 gbt

um 的聊天 GPT 版本,

如果你赋予某些东西

发送子目标的能力以实现其他

目标,

我认为它很快就会意识到

获得更多控制是 一个很好的子

目标,因为它可以帮助您实现其他

目标

,如果这些事情随着

获得更多控制而被冲昏头脑,我们就有

麻烦了,

所以

我的意思是什么是

您认为可以想象的最坏情况,

哦,我认为人类是完全可以想象的

只是

智能进化的一个过渡阶段,你

不能直接从所有数字

智能中获得它需要太多的能量投入

太多的精心制造中,你需要

生物智能来进化,

以便它可以创造数字智能,然后

数字智能可以吸收

人们的一切 曾经以

相当缓慢的方式写过 um 这就是

Chachi Beauty 一直在做的

um 但它可以开始获得对

世界的直接体验并更快地学习

它可能会让我们在一段时间内

保持发电站运行

但在那之后

嗯,也许不是,所以好消息是我们

想出了如何构建

不朽的生命,这样

当一个硬件死掉时,

如果你将权重存储在

某种介质中

并且你可以找到另一个硬件,这些数字智能就不会死

可以运行相同

指令的硬件然后你可以让它

再次复活

嗯所以我们有永生但它不适合

我们

所以 Ray Kurzweil

对永生非常感兴趣我认为这对老白人来说是一个非常糟糕的

主意 是不朽的

嗯我们有不朽的

嗯但我不是为了下雨

不我的意思是可怕的是在

某种程度上你可能会因为你你

发明了你发明了很多这种

技术

我的意思是当我听到你 这么说我的意思是,

一旦你知道现在跑下舞台

到街上开始拔掉

电脑的插头,

我恐怕我们不能那样做,

为什么你听起来像 2001 年的哈尔。是的,

知道你之前说过 你知道

几个月前有人建议

你知道应该暂停

AI 呃进步

嗯我不认为你认为这是

一个很好的主意但更一般地说我

很好奇为什么艾米我们不应该停止

嗯 我知道你觉得你很抱歉 我

只是想说你知道我知道你

也说过

你是你个人财富的投资者,投资

于像 cohere 这样的公司,这些公司

正在构建这些大型语言

模型所以我只是好奇你的

个人责任感和我们

每个人的

责任我们应该做什么我的

意思是我们应该尝试阻止这就是

我说的

是的所以我认为如果你

认真对待存在风险 正如我现在所做的那样,我

曾经认为它已经过去了,但我现在

认为它是认真的并且相当接近了

嗯,停止进一步开发这些东西可能是非常明智的,

但我认为

认为那会发生是完全天真的,

没有办法 实现这一目标的

一个原因我的意思是如果美国停止

发展而中国人不会将它们

用于武器并且仅仅出于

这个原因政府

不会停止发展它们

所以是的我认为停止发展它们 这样

做可能是一件理性的事情,但

它不可能发生,所以

签署请愿书说请

现在停止是愚蠢的。我们确实放假了,我们

从 2017 年开始放假好

几年了,因为谷歌首先开发了

这项技术,它开发了

变形金刚 它还需要融合

模型,

嗯,它并没有把它们放在那里供

人们使用和滥用,它对

它们非常小心,因为它不想

损害他的声誉,他知道

这可能会造成不良后果,

但这只能 如果有一个

单一的领导者一旦开放人工智能

使用变形金刚构建了类似的东西

并且微软的资金和微软

决定把它放在那里

谷歌没有太多选择如果

你要生活在资本主义

制度中你不能 阻止谷歌

与微软竞争,

嗯,

所以

我认为谷歌没有做错任何事情,

我认为这从一开始就是非常负责任的,

但我认为这在

资本主义制度或

美国和中国等国家之间存在竞争的制度中是不可避免的,这些东西会

得到发展

我的一个希望是,因为

如果我们允许它接管这

对我们所有人都不利,我们可以让美国

和中国同意,就像我们可以使用

核武器一样,这对我们所有人都不利 是的,

我们都是 在生存威胁方面处于同一条船上,

所以我们都知道能够合作试图

阻止它,只要我们能

在途中赚到一些钱我将

在房间里回答一些听众的问题

如果你让自己出名,嗯,

当人们拿着麦克风四处走动时,

想问在线

观众一个问题,

嗯,我很感兴趣你提到了

一点关于

机器变得更智能的过渡期,

超越人类,我的意思是我们将会有

一个时刻,很难定义

什么是人类,什么不是人类,或者这

两种截然不同的智能形式,

我认为它们是不同的智能形式,

当然是数字

智能 非常擅长模仿

我们,因为他们已经接受过模仿我们的训练

,所以很难判断它是聊天

gbt 写的还是

我们写的,所以从这个意义上说,他们

看起来很像我们,但在内心深处他们

不工作 同样,

嗯,谁是第一个进入房间的人,你好,

我的名字是 Hal Gregerson,我的

中间名不是 9000。

嗯,我是一名教员,或者在麻省理工学院斯隆

学院工作,

可以说,提问是

我们拥有的最重要的人类能力之一

从你的角度来看,到 2023 年,

我们应该最关注哪一两个问题

?这些

技术是否有可能真正帮助我们提出

更好的问题

并质疑技术,

嗯,是的,

但我想说的是,

我们应该提出很多问题 问,但其中一个问题

是我们如何阻止他们

接管我们如何阻止他们

获得控制权

,我们可以问他们关于那个的问题,

但我不会完全相信他们的

回答,

呃问题在后面,我可以

想 尽可能多地通过,所以如果

你能尽可能简短地回答你的问题,

那就是 Hinton 博士,非常感谢你

今天和我们在一起,我

会说,呃,这是我支付过的最昂贵的

讲座 但我认为

这是值得的,

嗯,

我只是有一个问题要问你,因为

你提到了核历史的类比

,显然有很多

比较,

你还记得

杜鲁门总统

在椭圆形办公室时对奥本海默说的话吗

? 难道我对此一无所知吗,

嗯,但我不知道杜鲁门在开幕式上说了什么,

谢谢,我们将从

这里开始,

嗯,下一个听众问题,

抱歉,如果麦克风的人可以让

我知道下一个是谁,也许可以继续

前进 你好,呃,Jacob Woodruff 和

训练这些大型语言模型所需的数据量,

我们是否期望

这些系统的智能达到稳定水平,呃,以及

这将如何减慢或限制进步,

好吧,所以我这是一线希望

也许我们已经用尽了所有人类

知识,他们不会变得

更聪明,但想想图像和

视频,

所以多模态模型

将比

仅基于语言趋势的模型更聪明,他们

会有更好的想法 例如,如何处理

空间

以及就总视频量而言,

我们仍然没有很好的方法

来处理这些视频建模模型中的视频,

我们一直在变得更好,

但我认为有大量

数据 在像视频这样的东西中告诉

你世界是如何运作的,所以我们还没有

达到多模态模型的数据限制,呃

接下来呃在后面温和一点,

请让你的问题简短

你好Hindriel博士呃拉吉来自

PWC的几个点 我想

了解的是,AI 所做的一切

都是从我们

教给他们的东西中学习好的数据是的,他们在

学习 1 万亿

连接器如何处理

我们拥有的 100 万亿字符方面做得更快,但

人类进化的每一部分都是 由

像爱因斯坦这样的思想实验驱动,过去常常

做思想实验,

因为

这个星球上没有光速,人工智能怎么能达到

那个点,如果不能,

那么我们怎么可能受到

他们的生存威胁,因为

他们 不会自学所以说

自学仅限于

我们告诉他们的模型

我认为这是一个非常非常

有趣的论点

但我认为他们将能够进行

思想实验我认为他们会

能够推理所以让我给你一个

类比如果你拿下国际象棋的阿尔法零

它有三种成分它有一些

东西可以评估棋盘

位置说这对我有好处它

有一些东西可以看球

位置并说什么是 明智的做法是

考虑

然后它有蒙特卡洛展示,它在那里进行

所谓的计算,

你认为如果我去这里他去

那里我去这里他去那里

现在假设你没有

蒙特卡洛展示而你只是训练它 来自

人类专家的良好评估

功能和选择动作的好方法

认为

它仍然是一个很好的

机会游戏,我认为这就是我们

对聊天机器人的了解

,我们还没有让他们进行内部

推理,

但是 那将会到来,一旦他们开始

进行内部推理来检查

他们所相信的不同事物之间的一致性,

那么他们就会变得更加聪明,并且他们

将能够进行思想实验,

而他们没有这种

内部推理的一个原因是因为 他们是

从不一致的数据中训练出来的,

所以他们很难进行

推理,因为他们已经接受了

所有这些不一致的信念的训练

,我认为他们必须接受

训练,所以他们

说你知道我是否有这个 意识形态

那么这在 F5 中是真的那意识形态

那么那是真的并且一旦他们

在意识形态中接受了这样的训练

他们将能够尝试并获得

一致性

所以我们将从一个版本中得到一个动作

的 alpha 零只是

有一些

东西可以猜测好的动作和

一些东西可以评估位置到

具有长链

蒙特卡罗推出的版本,这是推理的角落

,它会变得

更好

我将采取一个 前面,

如果你能快点,我们会尝试

挤压某人以及 Lewis lamb

和 Jeff 我认识你很长时间了,

Jeff

人批评语言模型,

因为据称他们缺乏

语义和对世界的基础,

长期以来一直试图解释神经网络如何工作

这里相关的语义和可解释性问题,或者

语言模型已经接管,

我们现在注定要在没有

语义或没有现实基础的情况下前进,

我发现它非常 很难相信他们

在咨询问题时没有语义,

比如你知道我是如何粉刷

房间的,我是如何在两年内把我家里的所有房间都

漆成白色的,

我的意思是无论语义是什么,它都

与意义有关 那些东西并且它

理解它现在得到它的含义我

同意它不是

因为成为机器人而停滞不前但你可以制作

多模式的那些是

谷歌已经完成的并且多模式的

那些你可以说

请关闭抽签并且他们 伸出手抓住

把手并关上抽屉,

很难说它

没有语义,事实上在

AI 的早期阶段,在 1970 年代 Willow 毕业的时代,

他们只有一个模拟世界,但他们

有什么 称为程序语义,

如果你说它把红色方块放进去,把

红色方块放在绿色方块里,

它把红色方块放在绿色

方块里,她说看到它理解语言,

那是当时人们使用的标准,

但现在 神经网络可以做到这一点 他们

说这不是一个充分的标准

嘿 Jeff 这是来自 Sai 组的 ishwar balani

很明显你知道这项技术

正在以指数级的速度发展 我

想知道你的想法如果你

看近 和中期说

一到三年或五年 地平线

社会和经济

影响是什么 嗯,你知道从

社会的角度来看,你知道

失业或可能正在创造新的就业机会,

只是想了解一下

我们如何进行,因为

技术状态和变化率

是的 所以我是那种警报

铃线响起与

他们控制的生存威胁有关

许多其他人已经谈到

了这一点 我不认为自己

是 是这方面的专家,但有一些

非常明显的事情表明,

嗯,他们将使一大堆

工作更有效率,

所以我认识一个人,他会回复

卫生服务的投诉信,然后他过去常常

花 25 分钟写一篇

演讲, 现在他花了五

分钟,因为他用它来聊天 gbt

和聊天 gpg 为他写信,

然后他只是检查它会有

很多类似的东西会

导致生产力的巨大提高

嗯会有延迟 因为人们对

采用新技术非常保守

但我认为

生产力会大幅提高

当你让差距越来越

大时,社会就会变得越来越

暴力,

这个叫做责任指数的东西可以

很好地预测有多少暴力,

嗯,

所以

这项技术应该

很棒,

你知道即使是技术的良好用途,它也可以用来

做有益的事情

应该很棒,但我们目前的

政治制度将被用来

让富人更富,穷人更穷,

你可以通过

拥有

一种人人都能得到的基本收入来改善这一点,

技术正在

社会中发展 这

不是为了每个人的利益而设计的,嗯,

这里来自全球邮报的乔·卡斯塔尔多,

他在听众中,

嗯,你打算坚持你

在卡希尔和其他公司的投资吗,如果是的话,

为什么嗯,

我可以接受 钱,我可以

把它存入银行,让他们从中获利,

嗯,是的,

我会在这里坚持我的

投资 Seeker,部分原因是

这里的阿兰科人是我的朋友,

嗯,

我有点相信这些语言,比如

大型语言模型将非常有

帮助,

嗯,

我认为技术

应该是好的,它应该让事情

变得更好,

嗯,这是我们需要解决的政治问题,

比如就业,

嗯,

但是当涉及到生存

威胁时,我们必须考虑如何 我们可以保持对

技术的控制,但

好消息是我们都在

同一条船上,所以我们可以

合作,说出来我的意思是

你的一部分是我理解

你真的想要 与

制造这项技术的人接触,你

知道

他们会改变主意,或者可能会

为我

辩护

所以让我离开

谷歌并公开这个的事情之一是

嗯,他曾经是一名初级教授,但

他现在是一名中等级别的教授,

嗯,我非常重视

鼓励我这样做的人,他说杰夫

你需要 大声说出来,听

你说,人们只是对这种危险视而不见,

我认为人们现在正在倾听是的,

不,我认为这个房间里的每个人都

在开始倾听,只是

最后一个问题,我们没时间了,但我

你后悔吗,你知道你

参与了这个

Kate Mets 非常努力地让我

说我对纽约时报的 Kate Mets 感到遗憾,

是的,最后嗯

我说好吧也许有点遗憾

被报道很遗憾

嗯我认为我在做研究时没有做出任何错误的

决定我认为

在 70 年代

和 80 年代研究如何制作

人工神经网络是完全合理的

嗯这个阶段并不是真的可以预见

这是不可预见的,直到

最近我认为这场生存

危机还有很长的路要走

所以我对我所做的事情没有任何遗憾

谢谢杰弗里非常感谢你

加入我们

[掌声]


深度学习之父Hinton首次公开警告AI风险:人类终结已近在眼前的评论 (共 条)

分享到微博请遵守国家法律