欢迎光临散文网 会员登陆 & 注册

AI算力需求平均每2个月翻一倍? & 《脑启发计算——我们需要一个总体规划》译文

2023-09-03 00:29 作者:shanyuan0106  | 我要投稿

微信公众号【乐生活与爱IT Plus】编者按

一、英文原文网址:

Brain-inspired computing needs a master plan | Nature

https://www.nature.com/articles/s41586-021-04362-w


本文2022年4月13日发表于"Nature Electronics" 杂志,该杂志是 Springer Nature 公司出版的同行评议期刊,专注于电子工程领域的研究。

二、AI算力需求平均每2个月翻一倍

受杨老师、黄老师启发,近日发现了一个令人惊讶的数据:2018年开始,AI算力需求增长进一步加速,平均每2个月就需要翻一倍!这意味着,5年(也即30个月),AI算力需求将达到10亿倍!不知道AI资深从业者如何看待这个数据?

这个增速,比OpenAI网站在2018年的数据要高出很多!2018年,OpenAI官网发布数据,6年(从2012年到2018年)AI算力增长30万倍。对应的图如下:


三、一些总结

数据:

1. 人工智能系统的算力需求快速增长,2012年到2018年呈指数增长,每3.5个月翻一倍;2018年后进一步加速,每2个月翻一倍。

2. 训练复杂机器学习模型的成本也在快速增长,2011年至今增长了近30万倍。

3. 与大脑相比,数字系统模拟相近规模的神经网络能耗差异达近40万倍。

4. 全球各国政府对数字人工智能技术的公共研发投入正在大规模增加,已达数十亿美元。

5. 相比之下,神经形态计算研发投入严重不足。

观点:

6. 现有计算方法难以满足未来AI系统的算力需求,我们需要新的计算方法。

7. 脑启发计算和神经形态计算有极大前景,可以在效率、处理非结构化数据等方面获得突破。

8. 必须增加对神经形态计算研发的投入,通过建立研究中心、培训人才等方式产生聚变效应。

9. 脑启发计算、量子计算和神经形态计算将协同推进未来计算技术发展。

10. COVID-19疫情加速了对更低碳计算技术的需求,神经形态计算可以发挥关键作用。

四、脑启发计算和神经形态计算的关系

脑启发计算(Brain-inspired computing)和神经形态计算(Neuromorphic computing)是两种不同的计算方法,但它们都受到了大脑的启发。

脑启发计算是一种计算方法,旨在模仿大脑的信息处理方式和神经网络结构。它通过使用类似于大脑中神经元之间相互连接的方式来构建计算系统,并采用类似于大脑中信息传递和处理的方法。脑启发计算通常使用传统的计算硬件,如中央处理单元(CPU)和图形处理单元(GPU),但其软件和算法设计受到神经科学的启发。它旨在实现大脑类似的信息处理能力和智能行为,但并不一定依赖于大脑的生物物理实现。

神经形态计算是一种更特定的脑启发计算方法,它着重于模拟和复制大脑神经元和突触的物理特性和行为。神经形态计算的目标是构建神经形态系统,这些系统的硬件和软件设计都受到大脑生物学的启发。它使用特殊的硬件设备,如记忆电阻器(memristor),以模拟神经元和突触之间的连接和信息传递。神经形态计算试图在计算系统中实现大脑类似的并行性、低功耗和高效能的特性。

总的来说,脑启发计算是一个更广泛的概念,涵盖了各种以大脑为启发的计算方法,而神经形态计算是在脑启发计算范畴内的一种特定方法,旨在模拟和复制大脑神经元和突触的物理特性和行为。

下面开始呈现Brain-inspired computing needs a master plan的全部中文翻译。感谢Google翻译、Claude.ai、GPT-4 & ChatGPT等。

摘要

受大脑启发的新型计算技术承诺以极高的能源效率处理信息,以及具备处理我们正以不断增加的速度,产生的大量非结构化和杂乱数据的能力。要实现这一承诺,需要一个勇敢和协调的计划,将不同的研究社区聚集在一起,并为他们提供所需的资金、重点和支持。我们过去曾通过数字技术做到这一点;我们正在利用量子技术来做到这一点;我们现在也能否使脑启发计算实现这一点?

主要

现代计算系统消耗了太多的能量。它们不是复杂的AI应用程序的可持续平台,这些应用程序越来越成为我们生活的一部分。我们通常看不到这一点,尤其是在基于云的系统的情况下,因为我们专注于功能——它们有多快;准确性如何;每秒有多少个并行操作?我们习惯于近乎即时地访问信息,以至于我们忽略了计算系统为我们提供这种访问权限的能源以及环境后果。然而,每次谷歌搜索都要耗费能量:数据中心目前每年使用约200太瓦时(terawatt hours10^12 瓦特小时,也即兆瓦特小时)的能源,预计到2030年将增长约一个数量级。1.

同样,具有惊人成就的DeepMindAlphaGoAlphaZero等高端AI系统,可以在复杂的策略游戏中击败人类专家,需要数千个并行处理单元,每个单元消耗约200瓦。2).

虽然并非所有的数据密集型计算都需要人工智能或深度学习,但深度学习的部署如此广泛,以至于我们必须担心其环境成本。我们还应该考虑包括物联网(IoT)和自主机器人代理在内的应用,这些应用可能不需要总是由计算密集型深度学习算法操作,但仍必须降低其能耗。如果无数连接设备的能源需求太高,物联网的愿景就无法实现。最近的分析表明,对计算力的需求增长远远超过了摩尔定律扩展带来的改进。3.

现在,计算力需求每两个月翻一番(图)。1a.

通过智能架构和软硬件协同设计的结合,取得了显著的改进。例如,自2012年以来,NVIDIA GPU(图形处理单元)的性能提高了 317 倍:远远超出了摩尔定律的预期(图)。1b

尽管在同一时期,设备的功耗从大约 25 W 增加到大约 320 W。在研发阶段已经证明了进一步令人印象深刻的性能改进(图)。1b,红色),我们很可能可以实现更多45.

不幸的是,仅靠传统的计算解决方案不太可能在长期应对需求。当我们考虑到最复杂的深度学习模型所需的训练成本高得惊人时,这一点尤其明显(图)。1c.

我们需要替代方法。

从根本上讲,能源问题是数字计算系统将数据分开存储和处理的结果。这是支撑数字计算系统的经典冯诺依曼架构。处理器花费大部分时间和精力来移动数据。幸运的是,我们可以通过从生物学中汲取灵感来改善这种情况,生物学采用了完全不同的方法——共置记忆和处理,以完全不同的方式编码信息或直接对信号进行操作,并采用大规模并行性,例如(框1)。

有一个系统可以很好地实现能源效率和高级功能:大脑。我们认识到我们仍有许多关于大脑运作方式需要学习的地方,并且我们的目标并不仅仅是模仿生物系统,然而,在过去几十年的神经科学和计算神经科学取得的显著进展中,我们仍然可以从中汲取教训。我们已经对大脑有足够的了解,足以将其作为灵感,推动技术的改进。

专栏我们所说的神经形态系统是什么意思?

从大脑中获取灵感使我们能够以与现有传统计算系统的工作方式根本不同的方式来处理信息处理。不同的大脑启发(神经形态)平台使用不同方法的组合:模拟数据处理,异步通信,大规模并行信息处理或基于尖峰的信息表示。这些特性将它们与冯·诺依曼计算机区分开来。

术语神经形态至少包括三个广泛的研究人员群体,区别在于他们的目标是模拟神经功能(对大脑进行逆向工程),模拟神经网络(开发新的计算方法)还是设计新类别的电子设备。

神经形态工程着眼于大脑如何使用生物突触和神经元的物理学来计算。神经形态工程师通过利用模拟电子学的物理特性(例如载波隧穿、硅浮栅上的电荷保留以及各种设备或材料属性在现场的指数依赖性)来模拟生物神经元和突触的功能,以定义基本操作以支撑音频或视频处理或智能传感器。晶体管用作具有丰富动态行为的模拟电路元件,而不是二进制开关。更多细节可以在参考中找到。41及相关工作。

神经形态计算希望生物学激发处理数据的新方法。这可以被认为是神经形态系统的计算科学。研究旨在模拟生物神经网络的结构和/或操作,这可能意味着像大脑一样将存储和计算放在一起;或者采用完全不同的计算方法,基于电压尖峰来模拟生物系统的动作电位。

支撑一切的是实现仿生功能所需的设备和材料。在这里,最近的发展有望出现新的电子和光子器件,我们可以定制其特性以模仿突触和神经元等生物元素。这些神经形态设备可以提供令人兴奋的新技术,以扩展神经形态工程和计算的能力。

在这些新设备中,最重要的是记忆电阻器(memristor):它们是双端电子设备,其电阻与它们的历史有关。它们对电刺激的复杂动态响应意味着它们可以用作数字存储元件,在人工突触中用作可变权重,作为认知处理元件、光学传感器以及模仿生物神经元的装置。它们可能具备生物树突的某些功能,并且它们的动态响应可以产生类似于大脑的振荡行为 - 有争议地,它们在混沌边缘运行。它们还可以与生物神经元在一个单一系统中相互关联。最重要的是,它们在消耗非常少的能量的情况下实现了所有这些功能

1:计算需求正在迅速增加。


1.(a) Brain-inspired computing needs a master plan, Nature Electronics, Volume 2, pages 284-286 (2019)

 1. (a),过去四十年中计算力需求的增加,以PetaFLOPS-days表示。到2012年,计算力需求每24个月翻一番;最近,这已缩短到大约每 2 个月一次。颜色图例表示不同的应用领域。数据来自参考文献。3.

 1. (b),过去五年人工智能硬件效率的提高。最先进的解决方案使计算效率提高了 300 多倍。研发解决方案有望进一步改进222324.

图 1. (c),自2011年以来,训练AI模型的成本增加。这种指数级增长显然是不可持续的。数据来自参考文献。25.

生物灵感

在生物学中,数据存储与处理并不分离。相同的元素 - 主要是神经元和突触 - 在大规模平行和适应性强的结构中执行这两种功能。1011神经元和 1015典型人脑中包含的突触消耗大约 20 W 的功率,而大约相同大小的人工神经网络的数字模拟消耗 7.9 MW(参考文献)。

6).这个六个数量级的差距给我们带来了挑战。大脑直接处理嘈杂的极端效率信号。这与我们传统计算机系统中的信号到数据转换和高精度计算形成鲜明对比,即使是最强大的数字超级计算机也会产生巨大的能源和时间成本。因此,脑启发的或神经形态的计算系统可以改变我们处理信号和数据的方式,无论是在能源效率方面还是在处理现实世界不确定性的能力方面。

这不是一个新想法。神经形态一词,描述模仿生物神经系统某些功能的设备和系统,由加州理工学院的卡弗·米德(Carver Mead)在1980年代后期创造。78.

灵感来自过去几十年的工作,即将神经系统建模为等效电路。9以及建立模拟电子设备和系统以提供类似的功能(框注1)。

关于数据的一句话。我们使用这个术语来描述编码在模拟信号或传感器的物理响应中的信息,以及更标准的以计算为中心的数字数据感。当我们提到大脑处理数据时,我们描述了一组集成的信号处理任务,这些任务不依赖于任何传统意义上的信号数字化。我们可以想到在不同层面上运行的受大脑启发的系统:从模拟信号处理到处理大型数字数据集。在前一种情况下,我们可以首先避免生成大型数据集;在后者中,我们可以通过摆脱冯诺依曼模型来大大提高处理效率。当然,我们为许多应用以数字方式表示数据是有充分理由的:我们需要高精度、可靠性和确定性。然而,数字化抽象丢弃了晶体管物理学中的大量信息,以获得最小的信息量子:一个比特。我们通过牺牲效率来换取可靠性,从而付出了可观的能源成本。AI应用程序本质上通常是概率性的,因此我们必须考虑这种权衡是否有意义。当由传统的冯诺依曼计算机执行时,支撑AI应用程序的计算任务是非常计算密集型的(因此需要耗能)。但是,在使用基于峰值的信息表示的模拟或混合系统上,我们可能会更节能地执行类似的任务。因此,最近对神经形态计算的兴趣重新抬头,这是由于人工智能系统的增长和新设备的出现,这些设备提供了新的和令人兴奋的方法来模仿生物神经系统的一些功能(框1)。

神经形态的定义差异很大。粗略地说,这个故事是一个硬件问题:神经形态芯片旨在集成和利用大脑的各种有用功能,包括内存计算、基于尖峰的信息处理、细粒度并行性、抗噪声和随机性的信号处理、适应性、硬件学习、异步通信和模拟处理。尽管需要实现多少这些方法才能被归类为神经形态,但显然这与在主流计算系统上实现的AI不同。然而,我们不应迷失在术语中;主要问题是这种方法是否有用。

神经形态技术的方法介于逆向工程大脑的结构和功能(分析)和生活在我们目前缺乏大脑知识但从我们所知道的(综合)中汲取灵感之间。也许前一种方法中最重要的是人脑项目,这是一个备受瞩目且雄心勃勃的十年计划,由欧盟从2013年开始资助。该计划支持采用和进一步发展两个现有的神经形态硬件平台 - SpiNNaker(曼彻斯特大学)和BrainScaleS(海德堡大学) - 作为可公开访问的神经形态平台。这两个系统都实现了高度复杂的大脑结构硅模型,以更好地了解生物大脑的运作。在光谱的另一端,许多团体使用选定的生物启发方法增强数字或模拟电子产品的性能。图2总结了现有神经形态芯片的范围,根据其在分析合成频谱上的位置及其技术平台分为四类。重要的是要记住,神经形态工程不仅仅是关于高级认知系统,而且还在认知能力有限的小型边缘设备中提供能量、速度和安全性增益(至少通过消除与云持续通信的需要)。

2:神经形态系统的景观。


神经形态芯片可以归类为模拟生物系统或将受脑启发的原理应用于新的计算应用。它们可以进一步细分为基于具有新颖架构的数字CMOS的设备(例如,脉冲可以在数字领域模拟,而不是作为模拟电压实现),以及使用一定程度的模拟电路实现的设备。然而,在所有情况下,它们至少具有右侧列出的一些特性,这些特性将它们与传统的CMOS芯片区分开来。在这里,我们对最近开发的神经形态芯片的例子进行了分类。每个的更多详细信息可以在相关参考中找到:Neurogrid13, BrainSclaseS14, MNIFAT15, DYNAP16, DYNAP-SEL17, ROLLS18, Spirit19,ReASOn20, DeepSouth21, SpiNNaker22, IBM TrueNorth23, Intel Loihi24, Tianjic25, ODIN26, Intel SNN chip27.

Fig. 2: The landscape of neuromorphic systems. | Nature

前景

我们不认为神经形态系统将或应该取代传统的计算平台。相反,精确计算应该仍然是数字计算的专利,而神经形态系统可以处理非结构化数据,执行图像识别,对杂乱和不确定的数据集进行分类,并支持新的学习和推理系统。在自主和物联网连接的系统中,与传统同类产品相比,它们可以提供巨大的节能效果。量子计算也是这一愿景的一部分;一台实用的量子计算机,虽然估计还需要几年的时间,但肯定会彻底改变许多计算任务。然而,物联网连接的智能传感器、边缘计算设备或自主机器人系统不太可能在不依赖云计算的情况下采用量子计算。仍然需要能够处理不确定和杂乱数据的低功耗计算元件。我们可以想象数字、神经形态和量子系统之间的三向协同作用。

正如半导体微电子学的发展依赖于许多不同的学科,包括固态物理学、电子工程、计算机科学和材料科学,神经形态计算是深刻的跨学科和跨学科的。物理学家、化学家、工程师、计算机科学家、生物学家和神经科学家都扮演着关键角色。简单地让来自不同学科的研究人员说一种共同语言是具有挑战性的。在我们自己的工作中,我们花费了大量的时间和精力,确保房间里的每个人都以相同的方式理解术语和概念。连接计算机科学(特别是人工智能)和神经科学(最初是计算神经科学)社区的案例是明确的。毕竟,在当今最先进的人工智能系统中发现的许多概念都是在 1970 年代和 80 年代在神经科学中出现的,当然,人工智能系统不一定是完全生物现实的。我们必须包括其他学科,认识到我们在人工智能或神经科学方面取得的许多进步是由不同的社区实现的,例如材料科学、纳米技术或电子工程方面的创新。此外,传统的CMOS(互补金属氧化物半导体)技术可能不是有效实施新的大脑启发算法的最佳结构;需要全面创新。尽早让这些社区参与可以降低将精力浪费在已经探索和失败的方向上或重新发明轮子的风险。

此外,我们不应忽视在系统层面整合新的神经形态技术的挑战。除了开发受大脑启发的设备和算法之外,还有紧迫的问题围绕着如何用功能等效的神经形态替代品取代现有的主流人工智能系统。这进一步强调了对大脑启发计算的完全集成方法的需求。

神经形态计算具有改变我们对人工智能的方法的潜力。由于新设备和技术与对高效人工智能系统的巨大和不断增长的需求相结合,我们有一个及时的机会。需要大胆的思考,以及支持这种思考的大胆举措。我们会抓住这个机会吗?

抓住机遇

如果需要神经形态计算,如何实现?一是技术要求。将不同的研究社区聚集在一起是必要的,但还不够。需要激励措施、机会和基础设施。神经形态社区是一个完全不同的社区,缺乏量子计算的重点,或半导体行业的清晰路线图。全球各地的倡议开始收集所需的专业知识,早期势头正在建立。为了促进这一点,资金是关键。对神经形态研究的投资远不及数字人工智能或量子技术的规模(框注2)。

尽管考虑到数字半导体技术的成熟,这并不奇怪,但这是一个错失的机会。有一些对神经形态研究和开发进行中等规模投资的例子,例如IBM AI硬件中心的一系列大脑启发项目(包括TrueNorth芯片),英特尔开发的Loihi处理器和美国大脑计划项目,但承诺的金额远低于他们应该得到的技术承诺来破坏数字AI

神经形态群落是一个庞大且不断增长的群落,但缺乏重点。尽管这一领域出现了许多会议、专题讨论会和期刊,但仍有许多工作要做,才能将不同的社区聚集在一起,并集中努力说服资助机构和政府相信这一领域的重要性。

采取大胆举措的时机已经成熟。在国家层面,政府需要与学术研究人员和行业合作,建立以任务为导向的研究中心,以加速神经形态技术的发展。这在量子技术和纳米技术等领域运作良好——美国国家纳米技术计划很好地证明了这一点。10,并提供焦点和刺激。这些中心可以是实体的,也可以是虚拟的,但必须汇集不同领域的最佳研究人员。他们的方法必须不同于传统的电子技术,在传统电子技术中,每个抽象层次(材料、设备、电路、系统、算法和应用)都属于不同的社区。我们需要在整个堆栈中进行整体和并行设计。电路设计人员在设计系统之前咨询计算神经科学家是不够的;工程师和神经科学家必须在整个过程中共同努力,以确保将生物启发的原理尽可能完全集成到硬件中。跨学科的共同创造必须是我们方法的核心。研究中心必须容纳广泛的研究人员。

除了所需的有形和金融基础设施外,我们还需要一支训练有素的劳动力队伍。电子工程师很少接触神经科学的想法,反之亦然。电路设计师和物理学家可能对神经元和突触有一定的了解,但不太可能熟悉尖端的计算神经科学。有充分的理由设立硕士课程和博士培训计划来培养神经形态工程师。英国研究委员会赞助博士培训中心(CDTs),这些中心是重点计划,支持已确定需要训练有素的研究人员的领域。CDT 可以是单机构或多机构;通过建立跨机构边界的互补团队,在这些项目上进行合作的机构将获得实质性的好处。这些项目通常与工业界密切合作,并以更传统的博士课程通常不会的方式建立高技能研究人员群体。有一个很好的案例可以开发类似的东西,刺激新生的神经形态工程社区之间的互动,并提供下一代研究人员和研究领导者。开创性的例子包括格罗宁根认知系统和材料研究计划,该计划旨在培训数十名博士生,专门研究认知(AI)系统的材料11,慕尼黑工业大学神经工程硕士课程12;苏黎世联邦理工学院神经形态工程模拟电路设计课程13;斯坦福大学大规模神经建模14;以及塞维利亚微电研究所视觉神经形态系统的发展15.还有做更多工作的余地。

类似的办法可以在跨国一级奏效。与往常一样,在研究中,合作最成功的时候是最好的,与最好的人合作,不分国界。在神经形态计算这样的跨学科工作中,这是至关重要的,因此国际研究网络和项目无疑可以发挥作用。早期的例子包括欧洲神经技术联盟16,专注于神经形态计算技术,以及德累斯顿大学(University of Dresden)的蔡忆阻器中心(Chua Memristor Centre17,汇集了材料、器件和算法领域的许多领先忆阻器研究人员。同样,可以而且必须做更多的工作。

如何使这能吸引政府?政府对更节能的生物启发计算的承诺可以成为更广泛的大规模脱碳推动的一部分。这不仅将应对气候变化,还将加速围绕大数据、物联网、医疗保健分析、药物和疫苗发现建模以及机器人等新的低碳产业的出现。如果现有行业依赖于更大规模的传统数字数据分析,它们会增加能源成本,同时提供次优性能。相反,我们可以创造一个良性循环,在这个循环中,我们大大减少了知识技术的碳足迹,这些知识技术将推动下一代颠覆性产业的发展,并在此过程中播种出许多新的神经形态产业。

如果这听起来很高,请考虑量子技术。在英国,政府迄今已承诺为一系列量子计划投入约1亿英镑,主要是在国家量子技术计划的保护伞下。一系列研究中心汇集了工业界和学术界,将量子科学转化为针对传感器和计量、成像、通信和计算的技术。一个单独的国家量子计算中心建立在中心和其他研究人员的工作之上,提供演示硬件和软件来开发通用量子计算机。中国建立了价值数十亿美元的中国量子信息科学国家实验室,美国于2018年委托了《量子信息科学国家战略纲要》。18,除了支持一系列国家量子研究中心外,还获得了为期五年的1亿美元投资19.由于这项研究工作,全球都在热潮中创办量子技术公司。一项分析发现,2017年和2018年对私营企业的资金达到4.5亿美元。20.尽管神经形态计算比量子技术更成熟,尽管它有可能在更短的时间内破坏现有的人工智能技术,但对神经形态计算没有这样的联合支持。在我们愿景中未来计算的三个方面中,神经形态的投资严重不足。

最后,谈谈 COVID-19 大流行可能对我们的论点产生的影响。越来越多的人一致认为,这场危机加速了许多已经在进行中的事态发展:例如,转向更多的在家工作。尽管减少通勤和旅行有直接的好处,但据估计,全球一氧化碳的减少2由于危机,高达17% 21新的工作方式是有代价的。减少差旅带来的碳节省将在多大程度上被数据中心排放量的增加所抵消?如果有的话,COVID大流行进一步强调了开发神经形态系统等低碳计算技术的必要性。

我们关于如何实现神经形态系统潜力的信息很明确:通过建立卓越研究中心为合作研究提供有针对性的支持;提供灵活的融资机制,以实现快速进展;提供与工业界密切合作的机制,以引入商业资金并产生新的衍生公司和初创企业,类似于量子技术已经到位的计划;为下一代神经形态研究人员和企业家制定培训计划;并快速、大规模地完成所有这些工作。

神经形态计算有可能改变我们的人工智能方法。由于新技术的结合和对高效人工智能的巨大、不断增长的需求,我们有一个及时的机会。需要大胆的思考,并采取大胆的举措来支持这种思维。我们会抓住机会吗?

参考

1.Jones N. How to stop data centres from gobbling up the world’s electricity. Nature https://doi.org/10.1038/d41586-018-06610-y (12 September 2018).

2.Wu K. J. Google’s new AI is a master of games but how does it compare to the human mind? Smithsonian https://www.smithsonianmag.com/innovation/google-ai-deepminds-alphazero-games-chess-and-go-180970981/ (10 December 2018).

3.Amodei D. & Hernandez D. AI and compute. OpenAI Blog https://openai.com/blog/ai-and-compute/ (16 May 2018).

4.Venkatesan R. et al. in 2019 IEEE Hot Chips 31 Symp. (HCS) https://doi.org/10.1109/HOTCHIPS.2019.8875657 (IEEE 2019).

5.Venkatesan R. et al. in 2019 IEEE/ACM Intl Conf. Computer-Aided Design (ICCAD) https://doi.org/10.1109/ICCAD45719.2019.8942127 (IEEE 2019).

6.Wong T. M. et al. 1014. Report no. RJ10502 (ALM1211-004) (IBM 2012). The power consumption of this simulation of the brain puts that of conventional digital systems into context.

7.Mead C. Analog VLSI and Neural Systems (Addison-Wesley 1989).

8.Mead C. A. Author Correction How we created neuromorphic engineering. Nat. Electron. 3 579–579 (2020).

9.Hodgkin A. L. & Huxley A. F. A quantitative description of membrane current and its application to conduction and excitation in nerve. J. Physiol. 117 500–544 (1952). More complex models followed but this seminal work remains the clearest and an excellent starting pointdeveloping equivalent electrical circuits and circuit models for the neural membrane.

10. National Nanotechnology Initiative. US National Nanotechnology Initiative https://www.nano.gov (National Nanotechnology Coordination Office accessed 18 August 2021).

11. About Groningen Cognitive Systems and Materials. University of Groningen https://www.rug.nl/research/fse/cognitive-systems-and-materials/about/ (accessed 9 November 2020).

12. Degree programsNeuroengineering. Technical University of Munich https://www.tum.de/en/studies/degree-programs/detail/detail/StudyCourse/neuroengineering-master-of-science-msc/ (accessed 18 August 2021).

13. Course catalogue 227-1033-00L Neuromorphic Engineering I. ETH Zürich http://www.vvz.ethz.ch/Vorlesungsverzeichnis/lerneinheit.view?lerneinheitId=132789&semkez=2019W&ansicht=KATALOGDATEN&lang=en (accessed 9 November 2020).

14. Brains in Silicon. http://web.stanford.edu/group/brainsinsilicon/ (accessed 16 March 2022).

15. Neuromorphs. Instituto de Microelectrónica de Sevilla http://www2.imse-cnm.csic.es/neuromorphs (accessed 9 November 2020).

16. Chua Memristor CenterMembers. Technische Universität Dresden https://cmc-dresden.org/members (accessed 9 November 2020).

17. Subcommittee on Quantum Information Science. National Strategic Overview for Quantum Information Science. https://web.archive.org/web/20201109201659/https://www.whitehouse.gov/wp-content/uploads/2018/09/National-Strategic-Overview-for-Quantum-Information-Science.pdf (US Government2018 accessed 17 March 2022).

18. Smith-Goodson P. Quantum USA vs. quantum China the world’s most important technology race. Forbes https://www.forbes.com/sites/moorinsights/2019/10/10/quantum-usa-vs-quantum-china-the-worlds-most-important-technology-race/#371aad5172de (10 October 2019).

19. Gibney E. Quantum gold rush the private funding pouring into quantum start-ups. Nature https://doi.org/10.1038/d41586-019-02935-4 (2 October 2019).

20. Le Quéré C. et al. Temporary reduction in daily global CO2 emissions during the COVID-19 forced confinement. Nat. Clim. Change 10 647–653 (2020).

21. Gokmen T. &  Vlasov Y. Acceleration of deep neural network training with resistive cross-point devicesdesign considerations. Front. Neurosci. 1010.3389/fnins.2016.00333 (2016).

22. Marinella M. J. et al. Multiscale co-design analysis of energy latency area and accuracy of a ReRAM analog neural training accelerator. IEEE J. Emerg. Selected Topics Circuits Systems 886–101 (2018).

23. Chang H.-Y. et al. AI hardware acceleration with analog memorymicroarchitectures for low energy at high speed. IBM J. Res. Dev. 63 81–814 (2019).

24. ARK Invest. Big Ideas 2021 https://research.ark-invest.com/hubfs/1_Download_Files_ARK-Invest/White_Papers/ARK–Invest_BigIdeas_2021.pdf (ARK Investment Management2021 accessed 27 April 2021).

25. Benjamin B. V. et al. Neurogrid a mixed-analog–digital multichip system for large-scale neural simulations. Proc. IEEE 102 699–716 (2014).

26. Schmitt S. et al. Neuromorphic hardware in the looptraining a deep spiking network on the BrainScaleS wafer-scale system. In 2017 Intl Joint Conf. Neural Networks (IJCNN) https://doi.org/10.1109/ijcnn.2017.7966125 (IEEE 2017).

27. Lichtsteiner P. Posch C. & Delbruck T. A 128 × 128 120 dB 15 μs latency asynchronous temporal contrast vision sensor. IEEE J. Solid-State Circuits 43 566–576 (2008).

28. Moradi S. Qiao N. Stefanini F. & Indiveri G. A scalable multicore architecture with heterogeneous memory structures for dynamic neuromorphic asynchronous processors (DYNAPs). IEEE Trans. Biomed. Circuits Syst. 12106–122 (2018).

29. Thakur C. S. et al. Large-scale neuromorphic spiking array processors a quest to mimic the brain. Front. Neurosci. 12 891 (2018).

30. Qiao N. et al. A reconfigurable on-line learning spiking neuromorphic processor comprising 256 neurons and 128K synapses. Front. Neurosci. 9 141 (2015).

31. Valentian A. et al. in 2019 IEEE Intl Electron Devices Meeting (IEDM) 14.3.1–14.3.4 https://doi.org/10.1109/IEDM19573.2019.8993431 (IEEE 2019).

32. Resistive Array of Synapses with ONline Learning (ReASOn) Developed by NeuRAM3 Project https://cordis.europa.eu/project/id/687299/reporting (2021).

33. Wang R. et al. Neuromorphic hardware architecture using the neural engineering framework for pattern recognition. IEEE Trans. Biomed. Circuits Syst. 11 574–584 (2017).

34. Furber S. B. Galluppi F. Temple S. & Plana L. A. The SpiNNaker Project. Proc. IEEE 102 652–665 (2014). An example of a large-scale neuromorphic system as a model for the brain.

35. Merolla P. A. et al. A million spiking-neuron integrated circuit with a scalable communication network and interface. Science 345 668–673 (2014).

36. Davies M. et al. Loihi a neuromorphic manycore processor with on-chip learning. IEEE Micro 38 82–99 (2018).

37. Pei J. et al. Towards artificial general intelligence with hybrid Tianjic chip architecture. Nature 572 106–111 (2019).

38. Frenkel C. Lefebvre M. Legat J.-D. & Bol D. A 0.086-mm2 12.7-pJ/SOP 64k-synapse 256-neuron online-learning digital spiking neuromorphic processor in 28-nm CMOS. IEEE Trans. Biomed. Circuits Syst. 13145–158 (2018).

39. Chen G. K. Kumar R. Sumbul H. E. Knag P. C. & Krishnamurthy R. K. A 4096-neuron 1M-synapse 3.8-pJ/SOP spiking neural network with on-chip STDP learning and sparse weights in 10-nm FinFET CMOS. IEEE J. Solid-State Circuits 54 992–1002 (2019).

40. Indiveri G. et al. Neuromorphic silicon neuron circuits. Front. Neurosci. 5 73 (2011).

41. Mehonic A. et al. Memristors—from in‐memory computingdeep learning acceleration and spiking neural networks to the future of neuromorphic and bio‐inspired computing. Adv. Intell Syst. 2 2000085 (2020). A review of the promise of memristors across a range of applicationsincluding spike-based neuromorphic systems.

42. Li X. et al. Power-efficient neural network with artificial dendrites. Nat. Nanotechnol. 15 776–782 (2020).

43. Chua L. Memristor Hodgkin–Huxley and edge of chaos. Nanotechnology 24383001 (2013).

44. Kumar S. Strachan J. P. & Williams R. S. Chaotic dynamics in nanoscale NbO2 Mott memristors for analogue computing. Nature 548 318–321 (2017).

45. Serb A. et al. Memristive synapses connect brain and silicon spiking neurons. Sci Rep. 10 2590 (2020).

46. Rosemain M. & Rose M. France to spend $1.8 billion on AI to compete with U.S. China. Reuters https://www.reuters.com/article/us-france-tech-idUSKBN1H51XP (29 March 2018).

47. Castellanos S. Executives say $1 billion for AI research isn’t enough. Wall Street J. https://www.wsj.com/articles/executives-say-1-billion-for-ai-research-isnt-enough-11568153863 (10 September 2019).

48. Larson C. China’s AI imperative. Science 359628–630 (2018).

49. European Commission. A European approach to artificial intelligence. https://ec.europa.eu/digital-single-market/en/artificial-intelligence (accessed 9 November 2020).

50. Artificial intelligence (AI) funding investment in the United States from 2011 to 2019. Statista https://www.statista.com/statistics/672712/ai-funding-united-states (accessed 9 November 2020).

51. Worldwide artificial intelligence spending guide. IDC Trackers https://www.idc.com/getdoc.jsp?containerId=IDC_P33198 (accessed 9 November 2020).

52. Markets and Markets.com. Neuromorphic Computing Market https://www.marketsandmarkets.com/Market-Reports/neuromorphic-chip-market-227703024.html?gclid=CjwKCAjwlcaRBhBYEiwAK341jS3mzHf9nSlOEcj3MxSj27HVewqXDR2v4TlsZYaH1RWC4qdM0fKdlxoC3NYQAvD_BwE. (accessed 17 March 2022).


AI算力需求平均每2个月翻一倍? & 《脑启发计算——我们需要一个总体规划》译文的评论 (共 条)

分享到微博请遵守国家法律