欢迎光临散文网 会员登陆 & 注册

AI服务器助力人工智能新发展

2021-09-13 18:10 作者:中科北纬  | 我要投稿


图片来自网络


人工智能的三大要素是数据、算法及算力。类比于火箭发射,数据就好比是组成火箭的诸多零件,算法就是驱动火箭发射、运行的程序,而算力则就像是燃料,只有足够强大的燃料才能助推着火箭成功发射。同样,算力的提高也推动着人工智能的发展。


人工智能研究组织OpenAI最近指出,“高级人工智能所需的计算能力每三个半月就会翻一番”。


人工智能之前发展受限的原因,除了算法层面外,计算能力的不足也是其中很重要的一环。这种“聪明”的应用程序,背后是海量的数据和指数级的计算力需求。而解决算力问题最重要的支撑就是AI服务器。


图片来自网络


我们都知道,传统服务器主要以CPU为算力提供者。而CPU为通用型处理器,采用串行架构,擅长逻辑计算,负责不同类型种类的数据处理及访问,同时逻辑判断又需要引入大量分支跳转中断处理,这使得CPU的内部结构复杂。也因此,CPU算力的提升主要靠堆核来实现。


图片来自网络


随着云计算、大数据、人工智能等技术应用,现如今的企业组织机构正在大规模的采用这些新技术来解析不断呈指数级增长的数据,这对以CPU为主要算力来源的传统服务器提出了严峻的考验。然而,目前CPU的物理工艺及核心数已经接近极限,由CPU提供算⼒的传统服务器很难满⾜这种密集型计算的需求。机器学习和人工智能代表了一个基本的新架构,需要重新思考基础架构,工具和开发实践。人工智能需要专属的基础机构进行承载和支撑,AI服务器应运而生。


那么AI服务器与普通服务器有什么区别呢?具体体现在以下几个方面:

1、服务器的硬件架构

AI 服务器是采用异构形式的服务器,在异构方式上可以根据应用的范围采用不同的组合方式,如 CPU+GPU、CPU+TPU、CPU+其他的加速卡等。与普通的服务器相比较,在内存、存储、网络方面没有什么差别,主要在是大数据及云计算、人工智能等方面需要更大的内外存,满足各种数据的存储及运算。

图片来自网络

2、卡的数量不一致

普通的 GPU 服务器一般是单卡或者双卡,AI 服务器需要承担大量的计算,一般配置四块 GPU 卡以上,甚至要搭建 AI 服务器集群。


3、独特设计

由于AI 服务器内置多个GPU卡和内存,需要针对性的对于系统结构、散热、拓扑等做专门的设计,才能满足 AI 服务器长期稳定运行的要求。


不同于CPU,GPU采用并行计算模式,单卡核心数达到上千个,擅长处理密集型运算应用,如图形渲染、计算视觉和机器学习。经过几年验证,搭载GPU的服务器也被证实的确适用这个时代。


近年来,随着深度学习网络模型的不断完善,再加上AI服务器的助力,人工智能在计算机视觉、语音识别、视频分析领域均取得了突破性进展,广泛应用于图像处理、人脸识别等典型AI应用场景。这些应用逐渐成熟的同时,也为遥感大数据信息智能提取提供了重要机遇。


天枢L-Earth 遥感智能视觉平台


行业内开始研究如何利用人工智能手段辅助挖掘遥感影像中丰富的信息。踏着AI+遥感的浪潮,中科北纬公司依托于丰富的自然资源行业经验及先进的技术-自主研发了遥感智能视觉平台——天枢。天枢平台基于自主可控的飞桨国产深度学习框架构建,采用B/S架构开发,内置三大解译功能:地物分割、变化检测、目标识别,可广泛应用于自然资源监测、卫片执法、农业监测等诸多领域,实现一键式自动化解译。


同时,天枢平台赋能用户自主训练模型,内置多个模型训练参数供用户调配,借助AI服务器的强大算力支撑,将用户手中庞大的影像及样本利用起来,按需训练适应特定场景的模型,可用于不同尺度、不同分辨率、不同时期的遥感影像特征提取及变化检测等功能。让用户真正专注于遥感数据的价值释放!

AI服务器助力人工智能新发展的评论 (共 条)

分享到微博请遵守国家法律