【TED】ChatGPT 惊人潜力背后的故事

中文文稿
七年前,我们成立了 OpenAI, 因为我们认为,AI 领域中 正在上演一些很有趣的事, 我们想助其走上正轨。 这个领域自此取得的进步 着实令人咋舌。 我也十分欣慰看到像网友雷蒙德 (Raymond)这样的人们 使用我们正在打造的技术, 还有很多人 将其用于许多美妙的用途。 我们看到有人很兴奋, 我们看到有人很忧虑, 我们看到有人两者兼有。 说实话,这也是我们的心情。 关键是感觉我们 即将进入一个历史性时期, 全球各地的人们将要 共同努力定义一项技术, 而它对于我们社会 未来的走向至关重要。 我相信我们有能力做到。
今天,我想为大家介绍 这项技术的现况 和其背后我们所珍视的 一些设计原则。
我要介绍的第一点是 为 AI (人工智能), 而不是人类打造一个工具, 是什么样的。 我们现在有了一个新的 DALL-E 模型,可以生成图片, 它的呈现方式是 ChatGPT 直接替你调用的应用程序。 你可以执行这样的操作, 比如问一问 这场 TED 结束了以后 吃点什么好呢?再画张图吧。
你能看到 ChatGPT 为你提供的这种 构思和发挥创意的往复过程 以及为你处理好所有细节的能力。 看这些回答,已经不仅仅是 关于一顿饭的想法了, 而是非常、 非常详细的大餐细节。 我们来看看能得出什么结果。 但在这种情况下,ChatGPT 不止生成了图片, 它不仅生成了文本, 还生成了图片。 这增强了它为了执行你的意图 而替你完成操作的能力。 我想提一点, 这都是现场演示。 这都是在我们的言语之间 由 AI 生成的。 其实我都不知道 我们会看到什么样的结果。 看起来非常棒。
看着它我都饿了。
我们也把其他工具 接入了 ChatGPT, 比如记忆。 你可以输入 “保存,稍后再用”。 这种工具的有趣之处在于 检查它们是非常容易的。 你可以看到这个弹出插件 写着“调用 DALL-E 应用”。 顺带提一句, 你马上就能用上这个功能了, 每位 ChatGPT 用户, 在几个月内就能用上。 如果你看一下它背后的技术, 看看它到底进行了什么操作, 其实就是像人那样 写了个提示(prompt)。 你可以检查 机器是如何使用这些工具的, 这样我们就可以为其提供反馈。
我们把它存了下来,之后再用, 我来给各位展示一下 如何利用这些信息, 调用其他应用。 你可以这么说: “请你针对我之前提到的美食, 制作一份购物清单。” 我们来给 AI 增加一点难度。 “再发条推特 推给所有 TED 观众。”
如果你真的做了这顿美餐, 我很想知道味道如何。
你可以看到, ChatGPT 选用了各种工具, 而我并不需要明确告诉它 什么情况下该用什么工具。 我认为这体现了一个 看待用户界面的新方式。 我们很习惯这么思考: 我们有了一些应用, 在应用之间点击, 在应用之间复制、粘贴, 通常在单个应用内体验良好, 只要你大概了解菜单 和所有选项就行。 是的,就这么做。 (键入提示) 是的,麻烦了。(键入提示) 礼貌一点总是好的。
有了统一的语言界面, 再加上工具, AI 就能从你手中提取各种细节。 你不需要一字一句地说出 该产生什么结果。
如我所说,这是个现场演示, 所以,有时会发生意外。 我们来看一看 这份 Instracart 购物清单。 你可以看到,我们向 Instacart 发送了一系列商品。 就是你所需的所有商品。 很有趣的一点是 传统 UI (用户界面) 依旧是很有价值的,对吧? 看一下这个界面, 你还是可以点上去, 修改实际数量。 我认为这就体现了 传统 UI 并没有消失。 只是我们有了一个全新、 增强的方式来创建它。 我们有了一条草拟好的推特, 等待我们的审阅, 这也是一件很重要的事。 我们可以点击“运行”, 然后就成了这样, 我们是管理者,可以检查, 要是愿意,我们 也可以修改 AI 的成果。 在这场演讲之后, 你自己也可以试一下。 有了。 酷。 谢谢大家。
我们再回到片子。 我们是怎么把它做出来的, 其中的关键之处 不仅仅是 怎么做出这些工具的问题。 还要教会 AI 使用它们。 我们问了这些高层级的问题, 到底想让它做些什么呢? 要回答这个问题, 我们用了一个老方法。 你可以翻阅 艾伦·图灵(Alan Turing) 1950 年关于图灵测试的 论文,其中写道, 你是编不出一个程序 来回答这个问题的, 而是通过学习。 你可以做一台机器, 就像人类儿童那样, 通过不断反馈指导它。 在它尝试、做出对的事 和不对的事的时候, 有那么一位人类老师 给它奖励和惩罚。
这就是我们训练 ChatGPT 的方式。 这个过程有两步。 首先,我们做了一台 图灵所称的“子计算机”, 采用了无监督学习过程。 我们给它看了整个世界, 整个互联网, 然后要求:“这是你之前没见过的内容, 请预测接下来该输出什么文本。” 这个过程让它掌握了 各种神奇的技能。 比如,你给它一个数学问题, 要做出这道数学题的唯一方式, 输出接下来的答案, 也就是这个绿色的 9, 只有通过真正解出这个数学问题。
但其实我们也得进行第二步, 即指导 AI 使用这些技能。 为了达到这个目的, 我们会给予反馈。 我们让 AI 尝试做几件事, 给我们提几个建议, 然后人类会为其评分, 表示:“这个比那个好。” 这不仅强化了 AI 刚说的那个答案, 更重要的是,还强化了 AI 生成这个答案的整个过程。 这样 AI 就可以泛化。 它可以指导、推测你的意图, 在没有出现过的情境下应用, 且是在没有接受过 反馈的情况下。
有时我们需要教给 AI 的东西 不是你意料之中的那些。 比如,我们第一次把 GPT-4 给可汗学院看的时候, 他们说:“哇,太棒了, 我们可以给学生教点好东西了。 只是有一个问题,它不会 检查学生的数学做得对不对。 如果数学做得不对, 它会愉快地默认一加一等于三, 然后就这么运行下去。” 于是我们就得收集一些反馈数据。 萨尔·可汗(Sal Khan) 本人很不错, 他贡献了 20 个小时的私人时间 和我们的团队一起为计算机 提供反馈。 在几个月的时间里, 我们已经可以这么教会 AI: “嘿,你真的得 在这种特定的场合下, 反驳人类。” 我们已经以这种方式 对模型进行了大量改良。 你在 ChatGPT 里 点击“踩”的时候, 其实是给我们的团队 发送了一个信号: “这块儿有缺陷, 你们得收集一些反馈。” 你这么点击的时候, 这就会是我们真正倾听用户、 确保我们创造的东西 会对每个人更有用的方式。
提供高质量的反馈是件难事。 想象一下让孩子打扫房间, 如果你做的唯一一件事 只是检查地面, 就不会知道你是不是只教会了他们 把所有玩具塞进衣柜里。 顺带说一句,这是一张 由 DALL-E 生成的美图。 同样的道理也适用于 AI。 如果要执行更困难的任务, 我们就得提高 提供高质量反馈的能力。 但就这一点, AI 本身就乐意为之。 它很乐意持续帮助我们 提供更好的反馈, 提高我们监督计算机的能力。 我来给你看一下 我说的是什么意思。
比如,你可以问 GPT-4 这么一个问题: 这两篇关于无监督学习 和基于人类反馈学习的 基础性博客之间 相差了多长时间, 模型说两个月。 但说的是真的吗? 这些模型不是 100% 可靠的, 虽然每次我们提供了反馈以后, 它们都会优化。 但其实我们可以利用 AI 进行事实核查。 它都可以核查自己的结果。 你可以要求它, 帮我核对一下是否属实。
在这个例子中,我给了 AI 一个新工具。 这是个浏览工具, 模型可以搜索查询,点进网页。 在搜索的过程中, 它会写出完整的思考过程。 它会写出,我要搜这个, 然后它真的就去搜这个了。 然后它会找到 发表时间和搜索结果。 然后它会再进行一次搜索。 点进博客。 你也可以做这些事, 但是这很冗长乏味。 这是人类不太想做的事。 掌控一切要有趣得多, 当管理者要有趣得多, 只要你想,你也可以 再查一遍结果。 你可以看到这些引用, 这样你就可以 非常轻松地验证 整条逻辑中的任何环节。 结果“两个月”是错误的。 两个月加一周, 这才是对的。
我们再回到片子。 我觉得整个过程中很有趣的是 这个过程是人类和 AI 之间 进行的多步合作。 因为人类 利用这个事实核查工具, 为的是产生数据, 让 AI 对人类更加有用。 我认为这充分展示了 未来会越来越常见的一种情况: 在一个具体的问题和 我们设想的解决方法中, 人类和计算机的定位分工 都会被非常谨慎、精心地安排好。 我们得保证人类 提供管理、全局视角、 反馈, 计算机以一种可被检查、 值得信任的方式运行。 通过合作,我们可以 创造出更值得信任的计算机。 我认为随着时间的推移, 如果我们让这个过程走上正轨, 我们就能解决 不可能被解决的问题。
为了让大家理解我说的 “不可能被解决”是什么意思, 我认为,我们可以重新思考 我们与计算机互动的 几乎每一个方面。 比如,表格。 它们从大约 40 年前 VisiCalc 时期就长这样了。 我觉得过了这么多年 也没发生什么变化。 这张表格记录了 arXiv 上过去 30 年里 所有与 AI 有关的论文。 大约有 167000 篇。 你可以看到这些数据。 但我想给你展示一下 ChatGPT 是如何分析这样的数据集的。
我们再给 ChatGPT 加一个工具, 这是个 Python 解释器, 它可以像数据科学家那样运行代码。 你只需要上传一个文件, 问相关的问题。 它很有用,可以读取 文件名然后这样运行: “哦,这是个 CSV 文件, 逗号分隔值文件(CSV), 我来给你解析一下。” 然后留下的信息只有文件名、 你刚看到的列名和实际数据。 从这些信息中,它可以推测出 这些列都代表着什么意思。 这里并没有语义信息。 所以它就得搜罗 它知道的所有信息, “哦,arXiv 是 人们提交论文的网站, 所以这些条目指的是论文, 而且这些数都是整数, 所以这个数值就是 论文作者的数量。” 等等操作, 这些都是人类要做的事, 而 AI 乐意效劳。
我都不知道我该问什么。 好就好在你可以问计算机: “你可以帮我做一些 探索性图表吗?” 同样地,这是个非常高层级的指示, 背后还有很多深层的涵义。 但我都不知道自己想要什么。 AI 就得推测我可能想要什么。 于是,它就给出了几个 我认为还不错的点子。 每篇论文作者数量的直方图、 每年论文的时间序列、 论文标题的词云。 我觉得这些都还挺有趣的。 妙就妙在它真的可以做出来。 来了,精美的正态分布曲线。 你可以看到,3 是最常见的数量。 让它给每年的论文 都做这么一张漂亮的图。 2023 年有点奇葩。 看起来我们经历了一个 指数增长然后跳水。 发生了什么事? 顺带提一句,这些都是 Python 代码,你是可以检查的。 我们来看词云。 你可以看到这些标题中的奇妙内容。
我对这 2023 年的现象 不太满意。 这一年看起来太差了。 当然,今年还没过完。 所以我要把问题抛回给计算机。 [等等!这不公平! 2023 年还没过完呢。 2022 年有多大比例的论文是在 4 月 13 日以前发表的?] 我就把 4 月 13 日 当作截止日期。 [你可以用这个结论 生成一个公平的图表吗?] 我们来看看,这题有点难度。
同样地,我这么做是因为 我对计算机有更大的企图。 我想让它注意到这一点, 虽然对它来说,机智地猜出 我这样的意图可能有点太难了。 但我表明了我的意图, 又为它提供了一些指导。 如果看它底层的运作, AI 只是又写了一遍代码, 所以如果你想检查一下它在干什么, 是很容易做到的。 这次,它生成了正确的图表。
你仔细看的话, 它还更新了标题。 我可没要求它这么做, 但它知道我想要什么。
我们再回到片子。 这张片子讲了一个故事, 表示我认为我们…… 我们未来使用这项技术的愿景。 一个人带着他病重的狗狗去看兽医, 兽医做了个愚蠢的决定,说: “我们就等着观望吧。” 如果他当时就这么信了兽医, 狗狗现在已经走了。 与此同时,他把验血结果、 完整病历提交给了 GPT-4, 它说:“我不是个兽医, 你得去找专业人士咨询, 以下是一些假设。” 他带着这些信息 去找了第二位兽医, 兽医利用这些信息 拯救了狗狗的生命。 这些系统不是完美的。 你不能过度依赖它们。 但我认为这个故事体现了 人类和医疗专家, 再加上 ChatGPT 作为头脑风暴的搭档, 可以创造出一些前所未有的成果。 我认为,这是我们所有人 在考虑将这些系统融入世界之时 该反思、考虑的一点。
我坚信的一点是, 让 AI 走上正道 需要每个人的参与。 参与决定该如何 让 AI 加入这个世界, 参与规划路该怎么走, 参与规定 AI 该做什么,不该做什么。 这场演讲能给你带来的 一个收获就是 这项技术就是与众不同。 与人们意料中的任何事物都不一样。 所以,我们都得对它有所了解。 说实话,这也是我们 发布 ChatGPT 的原因之一。
我相信,我们能一起努力 达成 OpenAI 的使命, 让通用人工智能 造福全人类。
谢谢。
(掌声结束)
克里斯·安德森(Chris Anderson): 格雷格(Greg)。 哇。 我…… 我怀疑在场的每个人 都有天旋地转的感觉。 我怀疑观看这场演讲的很多观众, 看到这些内容,都会心想:“天哪, 我得重新考虑一下 我日常操作中的每一件事。” 这是新的可能啊。 对吧? 谁认为得重新思考一下 自己行事的方式? 太神奇了, 但也太可怕了。 我们来谈谈吧,格雷格。
我想问的第一个问题就是 你们到底是怎么走到这一步的?
OpenAI 有几百名员工。 谷歌有几千名员工 专攻人工智能。 为什么是你们想出了这项 震惊世界的技术?
格雷格·布罗克曼 (Greg Brockman):其实, 我们是站在巨人的肩膀上前进, 毋庸置疑。 如果你看看计算的进步、 算法的进步、数据的进步, 这些都是覆盖整个行业的。 但我认为,在 OpenAI 内部, 我们汲取过往的经验 做出了很多慎重的决定。 首先就是直面现实。 我们对此苦思冥想: 在这个领域前进, 要付出什么代价? 我们尝试了很多无效的东西, 而你们只会看到有效的东西。 我认为最重要的一点就是 召集一个团队, 互不相同却要和谐地合作。
CA: 我们准备了水,拿过来吧。 我觉得我们得喝点水, 这是个令人津津乐道的话题。 但是,在这些语言模型中, 你有没有发现 如果你继续对其投入、研发, 到了某个节点, 会出现一些情况?
GB: 有。 老实说,我认为 我刚说的故事已经 很直观了,对吧? 我认为从高层级来看, 深度学习, 我们一直知道 这就是我们想要的结果, 就得有个深度学习实验室, 那我们该怎么把它做出来呢? 我觉得早期我们并不知道答案。 我们尝试了很多, 一位同事训练了一个模型, 用于预测 亚马逊评论中的下一个字母, 他得出了这样一个结果—— 这是个处理句法的过程, 你想要的结果是 模型预测出逗号在什么位置, 名词和动词在什么位置。 但他其实由此做出了一个 最先进的情感分析分类器。 这个模型可以判定 这条评论是正面还是负面的。 放到现在,我们会觉得, 人人都能做到啊。 但这是你第一次见到这样的东西, 由底层的句法处理进程 产生的语义。 由此,我们知道, 必须得扩大这项技术的规模, 必须得见证它未来的发展。
CA: 我认为这有助于解开 让观众困惑的谜题, 因为这些模型被称为预测机。 但我们看到它们就感觉…… 就感觉预测机怎么可能 可以产生这样的结果。 就是你刚才给我们看的东西。 新兴事物的关键就在于 一件东西出现得越多, 突然间就会出现很多别的东西。 这是个普遍现象,蚁群, 一只蚂蚁跑来跑去, 如果你把足够多的蚂蚁放在一起, 就会出现蚁群,呈现出完全 没有见过的、异于寻常的行为。 一座城市,几栋房子建在一起, 就只是几栋建在一起的房子而已。 但如果你增加房子的数量, 就会出现别的东西, 比如郊区、文化中心、堵车。 你有没有经历过这么一个瞬间, 眼前突然出现了什么东西, 让你震撼, 出乎意料?
GB: 嗯, 你可以在 ChatGPT 里试一试, 输入 40 位数字……
CA: 40 位?
GB: 40 位数, 模型是可以运算的, 也就是说它已经学会了 运算这些数字的内部逻辑。 很有趣的一点是 如果你试试将 40 位数 和 35 位数相加, 它通常会算错。 你可以看出, 它在学习这个过程, 但还没有完全泛化,对吧? 你不可能记住 40 位加法表, 这比宇宙中的原子数都多。 所以它得学习一些通用的东西, 但它还没有完全学会, 把它泛化到可以算出任意长度的 任意数字之和。
CA: 所以眼下的情况是 你拓展了它的能力, 能处理很大量的文本。 它在学习 你都不知道它能学会的东西。
GB: 对,也有点微妙。 我们逐渐掌握的一项技能是 预测这些新兴的性能。 要做到这一点, 我认为这个领域中 有件不太受到重视的事, 那就是工程质量。 我们要重建整个技术栈。 你可以想象一下造火箭, 每一项的容错率都得非常小。 机器学习也是一样的。 堆栈里的每一个元素 都得正确地编写, 之后才可以进行预测。 这些都是非常平滑的规模曲线。 它们体现了关于智能 非常基础的特质。 如果你去读一读我们的 GPT-4 博文, 你就会看到这些曲线。 我们现在可以开始预测了。 比如,我们可以预测 代码问题的性能。 我们会去看一些 小一万倍或一千倍的模型。 虽然还处于早期, 它们的增长还是平滑的。
CA: 最大的恐惧 来源于此。 如果一定会发生这种情况: 随着规模的扩大, 会出现你可能有一定信心预测, 但依然会吓你一跳的事。 那不是会有很大风险 会发生糟糕透顶的事吗?
GB: 我认为这些问题 都是有关程度、 规模和时机的。 我认为大家还忽略了一点, 那就是与世界接轨 也是一件新兴的、 很强大的事。 这也就是我们认为逐步部署 如此重要的原因之一。 你可以通过这场演讲看出 我关注的一大重点就是 提供非常高质量的反馈。 我们如今进行的任务, 你都可以进行检查,对吧? 你可以很轻松地看看那道数学题, 然后发现不对, 不对,不对, 机器,7 才是正确答案。 但就算是总结一本书 都是难以监管的事。 你如何得知这篇摘要 是一篇好摘要呢? 你得看完整本书。 没人想干这事儿。
(笑声) 所以,我认为重要的是 我们要一步一步来。 我们在处理书籍摘要时, 我们得适当地 对这个任务进行监管。 我们得建立起 这些计算机的历史记录, 确认它们是否能 真正执行我们的意图。 我觉得我们得创造出 更好、更高效、 更可靠的拓展方式, 让计算机与你保持一致。
CA: 这场演讲之后会提到, 有人评论说 其内部根本没有理解, 系统一直会…… 我们看不到 它不会产生任何差错、 它没有常识等等。 格雷格,你会不会 有那么一瞬间认为这说的是对的, 但又十分自信你刚谈到的 规模的扩大和人类的反馈 会将其带上 真正触及真相、 智慧等等的道路? 你确定吗?
GB: 我觉得 OpenAI, 简而言之答案是肯定的, 我相信这就是我们前进的方向。 OpenAI 的方式一直就是 被现实打脸,对吧? 这个领域就像是个 “不讲信用”的领域, 专家们都说 X 要发生了, 就是按 Y 这么做的。 人们一直在说神经网络 运行不了 70 年。 他们说的还不一定对呢。 也许说得对, 也许 71 年是对的, 或者你想说多少年就多少年。 但我认为我们的方式一直是 你得把这项技术推向极致, 见证这种情况的真正发生。 因为这才会告诉你,哦, 这就是我们走进新时代的方式。 我们还没有物尽其用呢。
CA: 你们所处的立场 还挺有争议的, 正确的方式就是把它公之于众, 再乘势而上, 不仅仅是你们团队提供反馈, 整个世界都在提供反馈。 但是…… 如果发生了坏事, 就这么发生了。 我听说 OpenAI 的起源故事是 你们刚开始是作为 非营利性机构成立的, 你们是查大企业 利用 AI 行不可告人的 不轨之事的利器。 你们做出了一些模型, 让大企业负起责任, 也在必要的时候 降低这个领域的发展速度。 至少我是这么听说的。 但不得不说, 真正发生的是相反的情况。 你们发布了 GPT, 尤其是 ChatGPT, 掀起了科技界的巨浪, 让谷歌、Meta 等等公司 现在手忙脚乱地追赶。 有些批评是这么说的, 你在没有适当保护的情况下逼我们 要么接受它的存在,要么死。 那你怎么能 确保你的所作所为 是负责任的、不鲁莽的。
GB: 我们一直在想这些问题。 真的就是一直在想。 我们不能保证 做的一直都是对的。 但我认为有一个非常重要的点, 从一开始,在我们思考 如何创造通用人工智能, 让它造福全人类的时候, 你该怎么达到这个目标呢?对吧? 我们默认会采取这样的计划, 悄悄做, 做出了一个超牛的东西, 然后考虑考虑它的安全性, 按下“运行”, 然后希望自己做成了。 我不知道如何执行这个计划。 也许有人知道。 但对我来说,这太吓人了, 感觉不太对。 所以我们转而采用这种方式, 这就是我能看到的 唯一一条途径, 就让现实打你的脸。 你也给了人们时间, 让他们提供输入。 在计算机达到完美状态之前, 在它们变得超级强大之前, 你有机会 看到它们真正发生的情况。 我们已经从 GPT-3 身上 看到了,对吧? GPT-3,我们真的很害怕 人们最想用它做的事 就是生成虚假信息, 试图左右选举。 其实他们最想做的是 生成壮阳药钓鱼邮件。
(笑声)
CA: 壮阳药钓鱼邮件确实不太好, 但是还有更糟糕的事。 我们来做一个思想实验。 假设你坐在一个房间里, 桌子上有个盒子。 你认为那个盒子里的东西, 非常有可能是个 很让人喜欢的东西, 可以是送给家人、 送给各位的精美礼品。 但也有 1% 的可能性 上面写了个小小的 “潘多拉”。 有可能会向世界 释放出无法想象的灾厄。 你会打开这个盒子吗?
GB: 当然不会。 我觉得你不会这么做的。 老实说,我来给你讲一个 我之前没说过的故事, 我们创立 OpenAI 之后不久, 我记得当时我在波多黎各 参加一场 AI 会议。 我坐在酒店房间里看海景, 所有人都玩得很开心。 就在此刻,思考一下: 你现在可以打开 那个潘多拉魔盒, 你可以选择在 5 年后 或者 500 年以后, 你会怎么选? 一方面你可能觉得 对你自己来说, 5 年以后比较好。 但如果得在 500 年以后打开, 人们也有更多的时间让它走上正轨, 你会选哪个? 当时我真的觉得该这么选。 我觉得你就得选 500 年以后。 我的兄弟当时在服役, 他那么实在地冒着生命危险, 比与此同时我们这些 在电脑上打打字、 开发技术的人要实在得多。 我真的确信人们得 “正视这项技术”这种说法。 但我认为这与它所处的领域不符。 纵观整个计算机技术史, 我可以认真地说, 这是一场涉及整个行业, 或更像是 “人类的技术进步”的变革。 你越不把这些现有的 线索、信息整合在一起, 我们就还在制造更快的计算机、 改进算法, 如此种种都是进行时。 如果你不整合它们, 你就处在一种“悬空”的状态, 意思就是如果有人动手做了, 或者在某一个瞬间, 有人真的打通了这条路, 你就突然间有了一个 非常强大的东西, 没有人有时间去调整, 谁知道会有什么样的 安全防护措施呢。 所以我认为 我学到的一点就是 就算你想的是开发其他技术, 比如核武器, 这都是人类力所能及的 零到一的改变。 但如果你看看人类的能力, 其实一直以来都是很平滑的。 历史上我们研发出的每一项技术, 都是一步一步来的, 每一次你要增强这种能力的时候, 你都得考虑如何掌控它。
CA: 我可以这么理解…… 你想我们以后使用的模型 是我们孕育出的神奇小孩, 它会拥有带领人类 走向新世界的超能力。 我们都有义务为这个孩子 保驾护航, 齐心协力让它更智慧, 不要毁灭我们自己。 这个模型是这样吗?
GB: 是的。 不得不说这种情况 也可能会改变,对吧? 我们要随机应变地向前迈进。 我认为如今很重要的一点是, 我们都得对这项技术有所了解, 搞明白如何提供反馈, 搞清楚我们到底想从中获得什么。 我希望,我们依旧 走在最优的道路上, 但我也很高兴我们 坦诚地讨论这个话题, 因为如果这项技术不存在, 我们也不会有这样的讨论了。
CA: 格雷格·布罗克曼,
感谢你来到 TED, 让我们大开眼界。