欢迎光临散文网 会员登陆 & 注册

深度学习及加速技术:入门与实践

2023-07-23 09:56 作者:流浪在银河边缘的阿强  | 我要投稿

链接:https://pan.baidu.com/s/158KjuI9oyf6FrchTtAsn2Q?pwd=se3x 

提取码:se3x

本书旨在培养读者在深度学习算法及硬件加速方案设计方面的工程实践能力,适合具备不同基础的读者学习。书中理论与实践相结合,详细讲解了深度学习基础理论,同时深入分析了处理梯度消失与过拟合现象、选择合适初始值、优化损失函数等深度学习算法设计中的关键技术,以及深度学习算法的硬件加速方案。

通过阅读本书,你将了解:

l 卷积神经网络基础,LeNet、AlexNet、VGGNet、GoogLeNet与ResNet等卷积神经网络结构的相关理论与技术;

l R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD等不同类型的目标检测算法的网络结构、工作原理以及不同算法间的异同点等;

l 深度学习算法设计中的关键技术,包括处理梯度消失与梯度爆炸、消除过拟合、选择初始值、调整学习速度、优化损失函数等;

l 网络模型优化、计算精度降低与网络剪枝技术、SIMD计算架构与GPU加速、TPU计算架构与TPU加速、ASIC AI计算架构与FPGA加速等深度学习加速技术的基础理论;

l OpenCL技术基础与平台环境搭建、OpenCL异构并行计算架构、OpenCL语言基本语法与程序设计以及基于OpenCL的FPGA异构并行计算实现方法等OpenCL异构并行计算技术;

l OpenVINO技术基础与加速架构、OpenVINO平台环境搭建、OpenVINO模型优化器以及OpenVINO推理引擎等OpenVINO深度学习加速技术。


内容简介

本书紧密围绕深度学习及加速技术的基础理论与应用案例展开叙述,实现了深度学习算法设计与硬件加速技术的有机统一,是一本基础理论与实践案例相结合的实用图书。其具体内容涉及人工智能基本概念,神经网络数学基础、神经网络基本结构与学习策略、反向传播算法数学原理与训练机制等神经网络基础理论,以及一些高级主题和实践。本书可作为从事人工智能领域算法研究、架构设计与应用实现等工作的科研人员、工程师以及高等院校师生的参考书籍。

作者简介

白 创

工学博士。2006年毕业于西安交通大学电子信息工程学院信息工程专业,获学士学位;2009年毕业于国防科技大学计算机学院软件工程专业,获硕士学位;2015年毕业于华中科技大学光学与电子信息学院微电子学与固体电子学专业,获博士学位。现为长沙理工大学物理与电子科学学院电子科学与技术专业教师。主要研究方向为超大规模集成电路开发、机器视觉与模式识别技术,具体包括芯片指纹和硬件防伪等安全领域芯片、射频无线通信芯片的研究与设计,以及深度神经网络学习算法及硬件加速、目标检测与缺陷识别等人工智能领域技术的研究。主持包括国家自然科学基金项目、湖南省教育厅科学研究项目等国家与地方项目6项,在国内外专业学术刊物和会议上发表研究论文20余篇,获得专利3项,编写专著2部。


目录

CONTENTS
目  录

前言
理论篇
第1章 人工智能简介 2
1.1 人工智能概念 2
1.1.1 人工智能定义 2
1.1.2 人工智能发展历程 3
1.2 人工智能与深度学习 4
1.2.1 人工智能与深度学习之间
的关系 4
1.2.2 图灵机与丘奇-图灵论题 5
1.3 人工智能发展阶段 6
1.3.1 人工智能1.0——知识+
算法+算力 6
1.3.2 人工智能2.0——数据+
算法+算力 7
1.3.3 人工智能3.0——知识+
数据+算法+算力 7
1.3.4 人工智能4.0——存算
一体化 8
1.4 人工智能应用 9
1.4.1 工业零部件尺寸测量与
缺陷检测 9
1.4.2 目标检测与跟踪 9
1.4.3 人脸比对与识别 10
1.4.4 三维影像重构 10
第2章 神经网络数学基础 12
2.1 线性向量空间 12
2.2 内积 14
2.3 线性变换与矩阵表示 15
2.4 梯度 17
第3章 神经网络与学习规则 20
3.1 神经元模型与网络结构 20
3.1.1 神经元模型 20
3.1.2 神经网络结构 22
3.2 感知机学习 24
3.2.1 感知机定义及结构 24
3.2.2 感知机学习规则 25
3.3 Hebb学习 28
3.3.1 无监督Hebb学习 28
3.3.2 有监督Hebb学习 29
3.4 性能学习 30
3.4.1 性能指数 30
3.4.2 梯度下降法 31
3.4.3 随机梯度下降法 32
第4章 反向传播 33
4.1 LMS算法 33
4.2 反向传播算法 35
4.2.1 性能指数 36
4.2.2 链式法则 36
4.2.3 反向传播计算敏感性 38
4.2.4 反向传播算法总结 39
4.3 反向传播算法变形 39
4.3.1 批数据训练法 40
4.3.2 动量训练法 40
4.3.3 标准数值优化技术 42
4.4 反向传播算法实例分析 42
第5章 卷积神经网络 45
5.1 卷积神经网络基础 45
5.1.1 全连接神经网络与卷积
神经网络 45
5.1.2 卷积神经网络组成结构 46
5.1.3 卷积神经网络进化史 50
5.2 LeNet 50
5.2.1 LeNet结构 51
5.2.2 LeNet特点 52
5.3 AlexNet 52
5.3.1 AlexNet结构 52
5.3.2 AlexNet特点 54
5.4 VGGNet 54
5.4.1 VGG16结构 55
5.4.2 VGG16特点 57
5.5 GoogLeNet 57
5.5.1 Inception结构 57
5.5.2 GoogLeNet结构——基于Inception V1模块 59
5.5.3 GoogLeNet特点 62
5.6 ResNet 62
5.6.1 ResNet残差块结构 63
5.6.2 ResNet结构 63
5.6.3 ResNet特点 66
第6章 目标检测与识别 67
6.1 R-CNN 67
6.1.1 基于SS方法的候选区域
选择 68
6.1.2 候选区域预处理 68
6.1.3 CNN特征提取 69
6.1.4 SVM目标分类 69
6.1.5 Bounding box回归 70
6.2 Fast R-CNN 70
6.2.1 基于SS方法的候选区域
生成 71
6.2.2 CNN分类与回归 71
6.2.3 Fast R-CNN目标检测
 算法特点 72
6.3 Faster R-CNN 73
6.3.1 CNN特征提取 73
6.3.2 RPN候选框生成 74
6.3.3 CNN分类与回归 74
6.3.4 Faster R-CNN目标检测
算法特点 75
6.4 YOLO 75
6.4.1 YOLOv1 75
6.4.2 YOLOv2 77
6.4.3 YOLOv3 80
第7章 深度学习优化技术 83
7.1 梯度消失 83
7.2 过拟合 85
7.2.1 增加训练数据集 85
7.2.2 regularization 86
7.2.3 dropout技术 88
7.3 初始值与学习速度 89
7.3.1 初始值选择规则 89
7.3.2 可变的学习速度 91
7.4 损失函数 92
7.4.1 均方误差损失函数 92
7.4.2 cross-entropy损失函数 93
7.4.3 log-likelyhood损失函数 95
第8章 深度学习加速技术 96
8.1 软件模型优化技术 96
8.1.1 网络模型优化 96
8.1.2 计算精度降低 97
8.1.3 网络剪枝技术 97
8.2 GPU加速技术 98
8.3 TPU加速技术 100
8.4 FPGA加速技术 102
8.4.1 全连接神经网络加速 102
8.4.2 卷积神经网络加速 103
应用篇
第9章 基于OpenCL的FPGA异构
并行计算技术 106
9.1 OpenCL技术基础与环境搭建 106
9.1.1 OpenCL技术基础 106
9.1.2 OpenCL环境搭建 107
9.2 OpenCL异构并行计算架构 115
9.2.1 平台模型 116
9.2.2 执行模型 116
9.2.3 内存模型 117
9.3 OpenCL C语言基本语法与程序
设计 118
9.3.1 基本语法与关键字 118
9.3.2 数据类型 119
9.3.3 维度与工作项 122
9.3.4 其他注意事项 123
9.4 基于OpenCL的FPGA异构并行
计算实现方法 123
9.4.1 主程序设计 123
9.4.2 内核程序设计 139
第10章 基于OpenCL的FPGA异构
并行计算应用案例 140
10.1 整体描述 140
10.2 内核

查看全部↓


深度学习及加速技术:入门与实践的评论 (共 条)

分享到微博请遵守国家法律