他山之石|“浏览器之父”马克·安德森:为什么AI将拯救世界
Marc Andreessen是风险投资公司Andreessen Horowitz的联合创始人兼合伙人。他是一位创新者和创造者,是为数不多的开创超过十亿人使用的软件类别的人之一(网景浏览器),也是为数不多的建立数十亿美元公司的人之一,被誉为“浏览器之父”。
本文翻译自Why AI Will Save the World | Andreessen Horowitz (a16z.com)
人工智能的时代已经到来,“大男孩们”(指对新科技一知半解的人)被吓坏了。
幸运的是,我在这里带来了好消息:人工智能不会摧毁世界,事实上可能会拯救它。
首先,简要描述一下什么是人工智能:数学和软件代码的应用,教计算机如何以类似于人们的方式理解、综合和生成知识。人工智能是一种计算机程序,就像任何其他程序一样——它运行、接受输入、处理和生成输出。人工智能的输出在广泛的领域都很有用,从编码到医学,从法律到创意艺术。它由人拥有并由人控制,就像任何其他技术一样。
对人工智能不是什么的简短描述:杀手级软件和机器人将栩栩如生,决定谋杀人类或以其他方式毁掉一切,就像你在电影中看到的那样。
对人工智能可能是什么的更简短的描述:一种让我们关心的一切变得更好的方法。

为什么人工智能可以让我们关心的一切变得更好
几十年来和数千项研究中,社会科学最有效的核心结论是,人类智力使非常广泛的生活结果变得更好。更聪明的人在几乎所有活动领域都有更好的结果:学业成绩、工作表现、职业状况、收入、创造力、身体健康、长寿、学习新技能、管理复杂任务、领导力、创业成功、解决冲突、阅读理解、财务决策、理解他人的观点、创造性艺术、育儿结果和生活满意度。
此外,人类智能是我们几千年来用来创造我们今天生活的世界的杠杆:科学、技术、数学、物理、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理、道德。如果没有在所有这些领域应用情报,我们仍将生活在泥屋里,勉强维持生计的农业。相反,在过去的10年里,我们利用我们的智慧将我们的生活水平提高了4000倍。
人工智能为我们提供的是深刻增强人类智能的机会,使所有这些智能成果——以及许多其他成果,从创造新药到解决气候变化的方法,再到到达恒星的技术——从这里开始变得更好。
人工智能对人类智能的增强已经开始——人工智能已经以多种计算机控制系统的形式出现在我们身边,现在正在通过像 ChatGPT 这样的人工智能大语言模型迅速升级,并且会从这里迅速加速——如果我们允许的话。
在人工智能的新时代:
每个孩子都会有一个人工智能导师,他有无限的耐心,无限的同情心,无限的知识,无限的帮助。AI导师将陪伴在每个孩子成长的每一步,用无限爱的机器版本帮助他们最大限度地发挥自己的潜力。
每个人都会有一个人工智能助理/教练/导师/培训师/顾问/治疗师,他有无限的耐心、无限的同情心、无限的知识、无限的帮助。人工智能助手将在生活中的所有机遇和挑战中出现,最大限度地提高每个人的成果。
每个科学家都将有一个人工智能助手/合作者/合作伙伴,这将大大扩展他们的科学研究和成就范围。每个艺术家,每个工程师,每个商人,每个医生,每个护理人员在他们的世界里都会有同样的东西。
每个领导者——首席执行官、政府官员、非营利组织总裁、体育教练、教师——都会有同样的东西。领导者在他们所领导的人中做出更好的决策的放大效应是巨大的,所以这种智力增强可能是最重要的。
整个经济的生产率增长将急剧加速,推动经济增长、创造新产业、创造新就业机会和工资增长,并导致全球物质繁荣的新时代。
科学突破、新技术和药物将大大扩展,因为人工智能将帮助我们进一步解码自然法则,并为我们的利益收获它们。
创意艺术将进入一个黄金时代,因为人工智能增强的艺术家、音乐家、作家和电影制作人比以往任何时候都更快、更大规模地实现他们的愿景。
我甚至认为人工智能将通过大幅降低战时死亡率来改善战争。每场战争的特点都是在巨大的压力下做出可怕的决定,而非常有限的人类领导人却在信息极其有限的情况下做出可怕的决定。现在,军事指挥官和政治领导人将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血事件。
简而言之,人们今天用他们的自然智能所做的任何事情都可以通过人工智能做得更好,我们将能够接受没有人工智能就无法应对的新挑战,从治愈所有疾病到实现星际旅行。
这不仅仅是关于智力!也许人工智能最被低估的品质是它的人性化程度。人工智能艺术为缺乏技术技能的人提供了创作和分享其艺术创意的自由。与善解人意的AI朋友交谈确实可以提高他们应对逆境的能力。人工智能医疗聊天机器人已经比人类同行更具同理心。无限耐心和同情心的人工智能不会让世界变得更严酷、更机械,而是让世界变得更温暖、更美好。
这里的风险很高。机会是深远的。人工智能很可能是我们文明创造的最重要,也是最好的东西,当然可以与电力和微芯片相提并论,甚至可能超越这些。
人工智能的发展和扩散——远非我们应该担心的风险——是我们对自己、对孩子和未来的道德义务。
我们应该生活在一个拥有人工智能的更美好的世界里,现在我们可以了。

那么为什么会感到恐慌呢?
与这种积极的观点相反,关于人工智能的公众对话目前充满了歇斯底里的恐惧和偏执。
我们听到有人说,人工智能会以不同的方式杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,造成严重的不平等,并使坏人能够做可怕的事情。
是什么解释了从近乎乌托邦到可怕的反乌托邦的潜在结果的分歧?
从历史上看,每一项重要的新技术,从电灯到汽车,从收音机到互联网,都引发了道德恐慌——一种社会传染病,让人们相信新技术将摧毁世界,或社会,或两者兼而有之。悲观主义者档案馆(Pessimists Archive)的优秀人士几十年来记录了这些由技术驱动的道德恐慌;他们的历史使这种模式生动清晰。事实证明,目前的恐慌甚至不是人工智能的第一次。
现在,可以肯定的是,许多新技术导致了糟糕的结果——通常是同样的技术,否则对我们的福利非常有益。因此,并不是说道德恐慌的存在就意味着没有什么可担心的。
但道德恐慌本质上是非理性的——它把可能合理的担忧膨胀成歇斯底里的程度,具有讽刺意味的是,这使得面对真正严重的担忧变得更加困难。
哇,我们现在对人工智能有一种全面的道德恐慌。
这种道德恐慌已经被各种参与者用作要求采取政策行动的动力——新的人工智能限制、法规和法律。这些行为者正在就人工智能的危险发表极其戏剧性的公开声明——以助长并进一步煽动道德恐慌——都以无私的公共利益捍卫者自居。
但是他们呢?
他们是对还是错?

人工智能的浸信会和走私者
经济学家在这种改革运动中观察到了一个长期的模式。像这样的运动中的参与者分为两类 - “浸信会”和“走私者” - 借鉴了1920年代美国禁酒的历史例子:
“浸信会”是真正的信徒社会改革者,他们有理由——如果不是理性地——深刻地、情感地感受到,需要新的限制、法规和法律来防止社会灾难。 对于禁酒令,这些演员往往是虔诚的基督徒,他们认为酒精正在摧毁社会的道德结构。 对于人工智能风险,这些参与者是人工智能存在一种或另一种存在风险的忠实信徒——把他们绑在测谎仪上,他们是认真的。
“走私者”是自私自利的机会主义者,他们通过施加新的限制、法规和法律来使他们与竞争对手隔离开来,从而获得经济利益。 对于禁酒令,这些是名副其实的走私者,他们在禁止合法销售酒精时向美国人出售非法酒精而发了财。 对于人工智能风险,如果建立监管壁垒,形成政府支持的人工智能供应商卡特尔,免受新创业和开源竞争的影响,这些首席执行官将赚更多的钱 - “太大而不能倒闭”银行的软件版本。
愤世嫉俗的人会认为,一些明显的浸信会教徒也是走私者——特别是那些被他们的大学、智库、活动家团体和媒体付钱攻击人工智能的人。如果你拿到薪水或获得助长人工智能恐慌的补助金......你可能是一个走私者。
走私者的问题在于他们赢了。浸信会是天真的理论家,走私者是愤世嫉俗的经营者,所以像这样的改革运动的结果往往是走私者得到了他们想要的东西——监管俘虏、与竞争绝缘、卡特尔的形成——浸信会想知道他们的社会进步动力在哪里出了问题。
我们刚刚经历了一个惊人的例子——2008年全球金融危机后的银行改革。浸信会告诉我们,我们需要新的法律法规来打破“太大而不能倒闭”的银行,以防止这样的危机再次发生。因此,国会通过了2010年的《多德-弗兰克法案》(Dodd-Frank Act of 2008),该法案被宣传为满足浸信会的目标,但实际上却被走私者——大银行——所笼络。结果是,<>年“太大而不能倒闭”的银行现在要大得多。
因此,在实践中,即使浸信会是真实的——即使浸信会是对的——他们 也会纵和贪婪的走私者用作掩护,以谋取利益。
这就是目前人工智能监管过程中正在发生的事情。
然而,仅仅确定演员并指责他们的动机是不够的。我们应该考虑浸信会和走私者的论点。

AI风险#1:AI会杀死我们所有人吗?
第一个也是最初的人工智能厄运风险是,人工智能将决定从字面上杀死人类。
我们自己创造的技术会兴起并摧毁我们的恐惧深深地植根于我们的文化中。希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯将火的破坏力,以及更普遍的技术(“技术”)带给人类,为此普罗米修斯被众神判处永久折磨。后来,玛丽·雪莱(Mary Shelley)在她的小说《弗兰肯斯坦》(Frankenstein)或《现代普罗米修斯》(The Modern Prometheus)中为我们现代人提供了我们自己版本的这个神话,其中我们开发了永生的技术,然后它崛起并试图摧毁我们。当然,如果没有詹姆斯·卡梅隆(James Cameron)的《终结者》(Terminator)电影中闪闪发光的红眼杀手机器人的静止图像,任何AI恐慌报纸的故事都是不完整的。
这个神话的假定进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,正如火也是现代文明的基础,用来让我们在一个寒冷和充满敌意的世界中保持温暖和安全一样,这个神话忽略了大多数人更大的好处 - 所有?– 新技术,在实践中煽动破坏性情绪,而不是理性分析。仅仅因为前现代人像这样惊慌失措并不意味着我们必须这样做;我们可以应用理性来代替。
我的观点是,人工智能将决定真正杀死人类的想法是一个深刻的类别错误。人工智能不是一种经过数十亿年进化的生物,它像动物和我们一样,参与适者生存的战斗。它是数学 - 代码 - 计算机,由人建造,由人拥有,由人使用,由人控制。认为它会在某个时候发展出自己的思想,并决定它有动机导致它试图杀死我们的想法是一种迷信的挥手。
简而言之,人工智能不想要,它没有目标,它不想杀死你,因为它没有生命。人工智能是一台机器——不会像你的烤面包机那样活跃起来。
现在,很明显,有杀手级人工智能的真正信徒 - 浸信会 - 他们因其可怕的警告而突然获得了大量的媒体报道,其中一些人声称已经研究了这个话题几十年,并说他们现在被他们学到的东西吓得失去理智。其中一些真正的信徒甚至是这项技术的实际创新者。这些参与者主张对人工智能进行各种奇怪和极端的限制,从禁止人工智能开发,一直到对数据中心的军事空袭和核战争。他们认为,因为像我这样的人不能排除人工智能未来的灾难性后果,我们必须采取预防措施,可能需要大量的身体暴力和死亡,以防止潜在的生存风险。
我的回答是,他们的立场是不科学的——什么是可检验的假设?什么会证伪这个假设?我们怎么知道我们什么时候进入危险区域? 这些问题除了“你无法证明它不会发生!事实上,这些浸信会教徒的立场是如此不科学和极端——一种关于数学和代码的阴谋论——并且已经在呼吁身体暴力,我会做一些我通常不会做的事情,并质疑他们的动机。
具体来说,我认为有三件事正在发生:
首先,回想一下,约翰·冯·诺依曼(John Von Neumann)回应了罗伯特·奥本海默(Robert Oppenheimer)关于他制造核武器的角色的著名抨击 - 这有助于结束第二次世界大战并防止第三次世界大战 - “有些人认罪是为了声称罪恶。一个人可以声称自己的工作的重要性而不听起来公然自夸的最戏剧性的方式是什么?这解释了实际建设和资助人工智能的浸信会信徒的言行不匹配——注意他们的行动,而不是他们的言语。(杜鲁门在与奥本海默会面后更加严厉: “不要再让那个哭泣的婴儿进来了。”)
其次,一些浸信会信徒实际上是走私者。有“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”的整个职业。他们被付钱成为厄运者,他们的陈述应该得到适当的处理。
第三,加州理所当然地以我们成千上万的邪教而闻名,从美国东部时间到人民圣殿,从天堂之门到曼森家族。这些邪教中的许多(尽管不是全部)是无害的,甚至可能为在其中找到家的疏远者服务。但有些确实非常危险,众所周知,邪教很难跨越最终导致暴力和死亡的界限。
而现实,对湾区的每个人都是显而易见的,但可能不是在湾区之外,“人工智能风险”已经发展成为一种邪教,它突然出现在全球媒体关注和公众对话的光芒中。这个邪教不仅吸引了边缘人物,还吸引了一些真正的行业专家和不少富有的捐助者——直到最近,还包括山姆·班克曼-弗里德(Sam Bankman-Fried)。它发展了一整套邪教行为和信仰。
这种邪教就是为什么有一群听起来如此极端的人工智能风险厄运者——并不是他们实际上拥有使他们的极端主义合乎逻辑的秘密知识,而是他们已经将自己鞭打成狂热,真的是......极其极端。
事实证明,这种类型的邪教并不新鲜——西方有着悠久的千禧年传统,它产生了世界末日邪教。人工智能风险邪教具有千年启示录邪教的所有特征。来自维基百科,我补充:
“千禧年主义是一个团体或运动[人工智能风险厄运者]对即将到来的社会根本性转变[人工智能的到来]的信念,之后一切都将改变[人工智能乌托邦,反乌托邦和/或世界末日]。只有戏剧性的事件(人工智能禁令、对数据中心的空袭、对不受监管的人工智能的核打击)才被认为能够改变世界[防止人工智能],而这种变化预计将由一群虔诚和奉献的人带来或幸存下来。在大多数千禧年情景中,即将到来的灾难或战斗[人工智能启示录,或其预防]之后将是一个新的、净化的世界[人工智能禁令],信徒将得到奖励[或至少承认一直都是正确的]。
这种启示录邪教模式是如此明显,以至于我很惊讶更多的人没有看到它。
不要误会我的意思,邪教很有趣,他们的书面材料通常很有创意和引人入胜,他们的成员在晚宴和电视上参与其中。但他们的极端信仰不应该决定法律和社会的未来——显然不是。

AI风险#2:AI会毁掉我们的社会吗?
第二个被广泛讨论的人工智能风险是,人工智能将毁掉我们的社会,通过产生如此“有害”的输出,用这种毁灭者的命名法来说,对人类造成深远的伤害,即使我们没有被杀死。
简短版本:如果谋杀机器人没有抓住我们,仇恨言论和错误信息就会得到。
这是一个相对较新的厄运问题,它从我上面描述的“人工智能风险”运动中分支出来并在某种程度上接管了它。事实上,人工智能风险的术语最近从“人工智能安全”(担心人工智能会杀死我们的人使用的术语)变成了“人工智能对齐”——担心社会“危害”的人使用的术语。最初的AI安全人员对这种转变感到沮丧,尽管他们不知道如何将其放回盒子里 - 他们现在主张将实际的AI 风险主题更名为“AI notkilleveryoneism”,这尚未被广泛采用,但至少是明确的。
人工智能社会风险索赔性质的提示是它自己的术语,“人工智能对齐”。 与什么对齐? 人类价值观。 谁的人类价值观? 啊,这就是事情变得棘手的地方。
碰巧的是,我坐在前排,看到类似的情况——社交媒体的“信任与安全”战争。现在很明显,社交媒体服务多年来一直受到政府和活动家的巨大压力,要求禁止、限制、审查或以其他方式压制各种内容。对“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的同样担忧正在从社交媒体环境中直接转移到“人工智能对齐”的新领域。
我从社交媒体大战中学到的重要经验是:
一方面,没有绝对主义的言论自由立场。首先,每个国家,包括美国,都至少将某些内容定为非法。其次,某些类型的内容,如儿童色情和煽动现实世界的暴力,几乎被每个社会普遍认为是禁区,无论是否合法。因此,任何促进或生成内容(语音)的技术平台都会受到一些限制。
另一方面,滑坡不是谬误,而是必然。一旦一个限制甚至极其可怕的内容的框架到位——例如,仇恨言论、特定的伤害性词语或错误信息,显然是虚假的声明,如“教皇死了”——令人震惊的广泛政府机构和活动压力团体和非政府实体 将开始并要求更高水平的审查和压制他们认为对社会和/或他们自己的个人偏好构成威胁的任何言论。他们将以赤裸裸的重罪方式这样做,包括这样做。在实践中,这个循环显然可以永远持续下去,在我们的精英权力结构中安装的专制大厅监视器的热情支持下。这在社交媒体上已经层层叠了十年,只有某些例外,它一直在变得更加狂热。
这就是现在围绕“人工智能对齐”形成的动态。它的支持者声称有智慧来设计人工智能生成的对社会有益的言论和思想,并禁止人工智能生成的对社会有害的言论和思想。它的反对者声称,思想警察是令人叹为观止的傲慢和放肆的——至少在美国往往是彻头彻尾的罪犯——事实上,他们正在寻求成为一种新型的融合政府-企业-学术专制言论独裁者,直接从乔治·奥威尔(George Orwell)的《1984》中撕下来。
由于“信任与安全”和“人工智能联盟”的支持者都聚集在全球人口中非常狭窄的人群中,这是美国沿海精英的特征——其中包括许多在科技行业工作和写作的人——我的许多读者会发现自己已经准备好争辩说,为了避免摧毁社会,需要对人工智能输出进行严格的限制。我现在不会试图说服你摆脱这种情况,我只想说这是需求的本质,世界上大多数人既不同意你的意识形态,也不想看到你获胜。
如果你不同意通过不断强化的语音代码强加给社交媒体和人工智能的普遍小众道德,你也应该意识到,关于人工智能被允许说/生成什么的斗争将 比对社交媒体审查的斗争更重要。人工智能极有可能成为世界上一切事物的控制层。如何允许它运作可能比其他任何事情都重要。你应该意识到,一小撮孤立的社会工程师小圈子现在正试图确定这一点,在他们保护你的古老主张的掩护下。
简而言之,不要让思想警察压制人工智能。

AI风险#3:AI会抢走我们所有的工作吗?
自机械织机等机械织机等机械最初出现以来,数百年来,由于机械化、自动化、计算机化或人工智能而对失业的恐惧一直是反复出现的恐慌。尽管历史上每一项新的重大技术都带来了更多以更高的工资工作,但每一波恐慌都伴随着“这次不同”的主张——这是它最终会发生的时候,这是最终将给人类劳动带来重击的技术。然而,它从未发生过。
在最近的过去,我们经历了两个这样的技术驱动的失业恐慌周期—— 2000年代的外包恐慌和2010年代的自动化恐慌。尽管在大规模失业临近的这两个十年里,许多谈话领袖、专家甚至科技行业高管都在抨击桌子,但到 2019 年底——就在 COVID 爆发之前——世界拥有比以往任何时候都多的工作岗位,工资更高。
然而,这种错误的想法不会消亡。
果然,它回来了。
这一次,我们终于拥有了能够取代所有工作并使人类工人变得多余的技术——真正的人工智能。当然,这一次历史不会重演,人工智能将导致大规模失业——而不是快速的经济、就业和工资增长——对吧?
不,这不会发生——事实上,如果允许人工智能在整个经济中发展和扩散,可能会导致有史以来最戏剧性和持续的经济繁荣,相应地创造创纪录的就业和工资增长——与恐惧完全相反。原因如下。
自动化杀死工作的厄运者不断犯的核心错误被称为劳动力谬误。这种谬误是一种不正确的观念,即在任何给定时间,经济中都有固定数量的劳动要做,要么机器做,要么人做——如果机器做,人们就没有工作可做。
劳动谬误自然地源于幼稚的直觉,但这里的天真直觉是错误的。当技术应用于生产时,我们就会获得生产率增长——通过减少投入来增加产出。其结果是商品和服务的价格降低。随着商品和服务价格的下降,我们为它们支付的费用也越来越少,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,从而推动了新生产的创造 - 包括新产品和新产业 - 然后为以前工作中被机器取代的人创造新的就业机会。其结果是一个更大的经济体,拥有更高的物质繁荣、更多的工业、更多的产品和更多的就业机会。
但好消息并不止于此。我们也得到了更高的工资。这是因为,在个体工人的层面上,市场将补偿设定为工人边际生产力的函数。技术注入企业中的工人将比传统企业中的工人更有效率。雇主要么付给工人更多的钱,因为他现在的生产力更高,要么另一个雇主会,纯粹是出于自身利益。其结果是,引入行业的技术通常不仅增加了该行业的工作岗位数量,而且还提高了工资。
总而言之,技术使人们能够提高工作效率。这导致现有商品和服务的价格下降,工资上涨。这反过来又导致经济增长和就业增长,同时激励创造新的就业机会和新产业。如果允许市场经济正常运行,如果允许技术自由引入,这是一个永无止境的永久上升循环。因为,正如米尔顿·弗里德曼(Milton Friedman)所说,“人类的需求是无穷无尽的”——我们总是想要比我们拥有的更多。技术注入的市场经济是我们更接近于提供每个人都可以想象到的一切的方式,但永远不会一直到那里。这就是为什么技术不会摧毁工作,也永远不会。
对于没有接触过它们的人来说,这些想法是如此令人振奋,以至于您可能需要一些时间来理解它们。但我发誓我不是编造的——事实上,你可以在标准的经济学教科书中读到所有关于它们的内容。我推荐 亨利·黑兹利特(Henry Hazlitt)的《一堂课中的经济学》(Economics In One Lesson)中的“机械的诅咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)讽刺性的《蜡烛匠请愿书》(Candlemaker's Petition),因为它与照明行业的不公平竞争而遮蔽了太阳,这里为我们的时代进行了现代化改造。
但这次不同,你在想。 这一次,有了人工智能,我们就有了可以取代所有人类劳动力的技术。
但是,使用我上面描述的原则,想想所有现有的人类劳动被机器取代意味着什么。
这将意味着经济生产率增长的起飞速度绝对是平流层的,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将爆炸式增长。企业家将创造一系列令人眼花缭乱的新行业、产品和服务,并尽可能快地雇用尽可能多的人和 人工智能来满足所有新需求。
假设人工智能再次取代这种劳动?这种循环将重演,推动消费者福利、经济增长以及就业和工资增长进一步提高。这将是一个直截了当的螺旋,通向一个亚当·斯密或卡尔·马克思都不敢梦想的物质乌托邦。
我们应该很幸运。

人工智能风险#4:人工智能会导致严重的不平等吗?
说到卡尔·马克思(Karl Marx),对人工智能抢走工作的担忧直接转向了下一个声称的人工智能风险,也就是说,好吧,马克,假设人工智能确实抢走了所有的工作,无论是坏事还是好事。这难道不会导致大规模和严重的财富不平等,因为人工智能的所有者获得了所有的经济回报,而普通人却一无所获?
碰巧的是,这是马克思主义的一个核心主张,即生产资料的所有者——资产阶级——将不可避免地从从事实际工作的人——无产阶级那里窃取所有社会财富。这是另一个谬论,无论它被现实反驳多少次都不会消亡。但无论如何,让我们在它的心脏上打一根木桩。
这个理论的缺陷在于,作为一项技术的所有者,把它留给自己不符合你自己的利益——事实上恰恰相反,把它卖给尽可能多的客户符合你自己的利益。世界上任何产品的最大市场是整个世界,我们所有8亿人。因此,在现实中,每一项新技术——即使是那些一开始就卖给高薪大公司或富裕消费者的稀薄空气的技术——都会迅速扩散,直到它掌握在尽可能大的大众市场手中,最终落入地球上的每个人手中。
这方面的典型例子是埃隆·马斯克(Elon Musk)在 2006年为特斯拉提出的所谓“秘密计划”——他自然而然地公开发布了该计划:
第1步,建造[昂贵的]跑车
第 2 步,用这笔钱制造一辆负担得起的汽车
第 3 步,用这笔钱制造一辆更实惠的汽车
...当然,这正是他所做的,因此成为世界上最富有的人。
最后一点是关键。如果埃隆今天只向富人出售汽车,他会更富有吗?不,如果他只为自己制造汽车,他会比这更富有吗?当然不是。不,他通过向最大的市场——世界销售来最大化自己的利润。
简而言之,每个人都能得到东西——正如我们过去看到的那样,不仅是汽车,还有电力、收音机、计算机、互联网、手机和搜索引擎。这些技术的制造商非常积极地降低价格,直到地球上每个人都能负担得起。这正是人工智能中已经发生的事情——这就是为什么你可以使用最先进的生成人工智能,不仅成本低,而且今天甚至以 微软必应和谷歌巴德的形式免费——而且它将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们想最大化他们的市场规模,从而最大化他们的利润。
因此,发生的事情与推动财富集中的技术相反 - 技术的个人客户,最终包括地球上的每个人,反而被赋予权力,并捕获大部分产生的价值。与以前的技术一样,构建人工智能的公司 - 假设它们必须在自由市场中运作 - 将激烈竞争以实现这一目标。
马克思当时错了,现在他也错了。
这并不是 说不平等在我们的社会中不是一个问题。事实上,它不是由技术驱动的,而是由相反的,由对新技术最抗拒的经济部门驱动,这些部门拥有最多的政府干预来阻止采用人工智能等新技术 - 特别是住房,教育和医疗保健。人工智能和不平等的实际风险不是人工智能会导致更多的不平等,而是我们不会允许人工智能被用来减少不平等。

AI风险#5:AI会导致坏人做坏事吗?
到目前为止,我已经解释了为什么人工智能最常提出的五个风险中有四个实际上并不真实——人工智能不会复活并杀死我们,人工智能不会毁掉我们的社会,人工智能不会造成大规模失业,人工智能不会导致不平等的毁灭性增加。但是现在让我们解决第五个问题,我实际上同意这一点:人工智能将使坏人更容易做坏事。
从某种意义上说,这是一种重言式。技术是一种工具。工具,从火和石头开始,可以用来做好事——做饭和盖房子——坏事——烧人,打人。任何技术都可以用于好或坏。很公平。毫无疑问,人工智能将使犯罪分子、恐怖分子和敌对政府更容易做坏事。
这导致一些人提出,好吧,在这种情况下,我们不要冒险,让我们在这种情况发生之前现在就禁止人工智能。不幸的是,人工智能并不是一些难以获得的深奥的物理材料,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。
AI猫显然已经从袋子里出来了。您可以从数以千计的免费在线课程、书籍、论文和视频中学习如何构建 AI,并且每天都有出色的开源实现激增。人工智能就像空气——它将无处不在。要阻止如此严厉的极权主义压迫——一个世界政府监视和控制所有计算机?黑色直升机上的暴徒抓住流氓 GPU?– 我们不会有一个社会需要保护。
因此,有两种非常简单的方法可以解决坏人用人工智能做坏事的风险,而这些正是我们应该关注的。
首先,我们有法律将任何人将要用人工智能做的大多数坏事定为犯罪。入侵五角大楼?这是犯罪。从银行偷钱?这是犯罪。制造生物武器?这是犯罪。犯下恐怖主义行为?这是犯罪。我们可以在可能的情况下集中精力预防这些罪行,在不能预防时起诉这些罪行。我们甚至不需要新的法律——我不知道有人提出的人工智能的实际不良用途已经不是非法的。如果发现新的不良用途,我们将禁止该使用。QED。
但你会注意到我在那里溜进去的东西——我说我们应该首先关注在人工智能协助犯罪发生之前预防它们——这样的预防不意味着禁止人工智能吗?嗯,还有另一种方法可以防止这种行为,那就是使用人工智能作为防御工具。使人工智能在有坏目标的坏人手中变得危险的相同能力,使其在有好目标的好人手中变得强大——特别是那些工作是防止坏事发生的好人。
例如,如果你担心人工智能会产生假人和假视频,答案是构建新的系统,人们可以通过加密签名来验证自己和真实内容。真假内容的数字创建和更改在人工智能之前就已经存在;答案不是禁止文字处理器和Photoshop或AI,而是使用技术来构建一个真正解决问题的系统。
因此,其次,让我们做出重大努力,将人工智能用于良好的、合法的、防御性的目的。让我们让人工智能在网络防御、生物防御、猎杀恐怖分子以及我们为保护自己、我们的社区和我们的国家安全所做的一切中发挥作用。
当然,政府内外已经有很多聪明人这样做——但如果我们把目前专注于禁止人工智能的徒劳前景的所有努力和脑力都用于 使用人工智能来防止坏人做坏事,我认为毫无疑问,一个注入人工智能的世界将比我们今天生活的世界安全得多。

不以最大力量和速度追求人工智能的实际风险
有一个最终的,也是真实的,人工智能的风险可能是最可怕的:
人工智能不仅在西方相对自由的社会中发展,它也是由中华人民共和国共产党开发的。
中国对人工智能的看法与我们大不相同——他们认为人工智能是一种威权人口控制的机制。他们甚至没有对此保密,他们对此非常清楚,他们已经在追求他们的议程。他们并不打算将他们的人工智能战略局限于中国——他们打算将其扩散到世界各地,在他们为5G网络供电的任何地方,在他们借给“一带一路”资金的任何地方,在他们提供像Tiktok这样的友好消费者应用程序的地方,作为他们集中指挥和控制人工智能的前端。
人工智能最大的风险是,中国赢得了全球人工智能的主导地位,而我们——美国和西方——却没有。
我提出了一个简单的策略来解决这个问题——事实上,罗纳德·里根总统用来赢得与苏联的第一次冷战的策略是一样的。
“我们赢了,他们输了。”
与其让围绕杀手级人工智能、“有害”人工智能、破坏就业的人工智能和产生不平等的人工智能的无根据恐慌让我们陷入困境,我们美国和西方人应该尽可能地倾向于人工智能。
我们应该寻求赢得全球人工智能技术优势的竞赛,并确保中国不会这样做。
在这个过程中,我们应该尽可能快和努力地推动人工智能进入我们的经济和社会,以最大限度地提高其对经济生产力和人类潜力的收益。
这是抵消真正的人工智能风险并确保我们的生活方式不会被更黑暗的愿景所取代的最佳方式。

怎么办?
我提出一个简单的计划:
大型人工智能公司应该被允许尽可能快速和积极地构建人工智能,但不允许实现监管捕获,不允许建立一个政府保护的卡特尔,由于人工智能风险的错误主张而不受市场竞争的影响。这将最大限度地提高这些公司惊人能力的技术和社会回报,这些公司是现代资本主义的瑰宝。
应该允许初创的人工智能公司尽可能快速和积极地构建人工智能 。他们既不应该面对政府给予的大公司的保护,也不应该接受政府的援助。他们应该被允许竞争。如果创业公司没有成功,它们在市场上的存在也将不断激励大公司做到最好——我们的经济和社会无论哪种方式都会赢。
开源人工智能应该被允许自由扩散,并与大型人工智能公司和初创公司竞争。开源不应该有任何监管障碍。即使开源没有击败公司,它的广泛可用性对世界各地想要学习如何构建和使用人工智能成为技术未来一部分的学生来说也是一个福音,并将确保人工智能可供每个可以从中受益的人使用,无论他们是谁或他们有多少钱。
为了抵消坏人用人工智能做坏事的风险,政府应该与私营部门合作,积极参与每个潜在风险领域,利用人工智能最大限度地提高社会的防御能力。这不应仅限于人工智能支持的风险,还应包括营养不良、疾病和气候等更普遍的问题。人工智能可以成为解决问题的强大工具,我们应该接受它。
为了防止中国实现全球人工智能主导地位的风险,我们应该利用我们的私营部门、我们的科学机构和我们的政府的全部力量,共同推动美国和西方人工智能走向绝对的全球主导地位,包括最终在中国国内。我们赢了,他们输了。
这就是我们利用人工智能拯救世界的方式。
是时候去开创了。

传奇与英雄
最后,我简单说两句话。
人工智能的发展始于 1940 年代,与计算机的发明同时出现。第一篇关于神经网络的科学论文——我们今天拥有的人工智能架构——发表于 1943 年。在过去的80年里,整整几代人工智能科学家出生、上学、工作,在许多情况下,他们去世时没有看到我们现在得到的回报。他们都是传奇,每一个人。
如今,越来越多的工程师——其中许多人都很年轻,可能有祖父母甚至曾祖父母参与了人工智能背后想法的创造——正在努力使人工智能成为现实,反对一堵散布恐惧和涂鸦主义的墙,试图将他们描绘成鲁莽的恶棍。我不相信他们是鲁莽或恶棍。他们都是英雄,每一个人。我和我的公司很高兴能尽可能多地支持他们,我们将100%与他们和他们的工作站在一起。
马克·安德森的观点值得批判学习,尤其是美国的精英阶层已经注意到中国对于AI的认知与西方世界大相径庭,但显然中国的议程更有改变未来的力量,所以马克在其观点中也发出了对华遏制与对抗的声音,这是值得警惕的。