欢迎光临散文网 会员登陆 & 注册

深度学习——基于PyTorch的实现

2023-08-04 23:24 作者:刘姥姥看人间  | 我要投稿

链接:https://pan.baidu.com/s/1-QibZOR59kmzREP3S1f0mg?pwd=bimq 

提取码:bimq

第1章 导 论
1.1 人工智能
1.1.1 人工智能的发展历史
1.1.2 人工智能的流派
1.2 机器学习
1.3 深度学习
1.3.1 深度学习的概念
1.3.2 深度学习与机器学习、人工智能的关系
1.3.3 深度学习的历史溯源
1.3.4 深度学习与回归分析
1.4 深度学习适用的领域
1.4.1 图像识别
1.4.2 语音识别
1.4.3 自然语言处理
1.4.4 棋牌竞技
1.5 常用的深度学习框架
1.5.1 Caffe
1.5.2 TensorFlow
1.5.3 PyTorch
1.5.4 MXNet
1.5.5 Keras
1.6 本书使用的数据和代码说明
第2章 神经网络的张量与数学基础
2.1 张 量
2.1.1 张量的定义
2.1.2 张量的数据类型
2.1.3 张量的创建方式
2.1.4 应用:图像数据转张量
2.2 张量的操作
2.2.1 获取和改变张量形状
2.2.2 提取张量中的元素
2.2.3 张量的拼接与拆分
2.3 张量的运算
2.3.1 基本运算
2.3.2 统计相关运算
2.3.3 矩阵运算
2.4 深度学习的导数基础
2.4.1 单变量函数和导数
2.4.2 多变量函数和偏导数
2.4.3 复合函数和链式求导法则
2.5 梯度下降算法的含义与公式
2.6 本章小结
第3章 前馈神经网络
3.1 前馈神经网络的基本结构和常见激活函数
3.1.1 神经元
3.1.2 Sigmoid函数
3.1.3 Tanh函数
3.1.4 ReLU函数
3.1.5 前馈神经网络的构成
3.2 损失函数的设置
3.3 梯度下降算法
3.3.1 梯度下降算法的直观理解与定义
3.3.2 小批量梯度下降算法
3.3.3 动量梯度下降算法
3.3.4 Nesterov梯度加速算法
3.3.5 自适应梯度算法
3.3.6 AdaDelta算法
3.3.7 均方根加速算法
3.3.8 自适应矩估计算法
3.4 反向传播算法
3.4.1 单个神经元的反向传播算法示例
3.4.2 两层神经网络的反向传播算法示例
3.5 过拟合
3.5.1 偏差-方差分解
3.5.2 正则化
3.5.3 权重衰减
3.5.4 丢弃法
3.6 本章小结
第4章 神经网络的PyTorch实现
4.1 线性回归案例:颜值打分
4.1.1 线性回归基础
4.1.2 案例:颜值打分
4.2 逻辑回归案例:性别识别
4.2.1 逻辑回归基础
4.2.2 案例:性别识别
4.3 softmax回归案例:Fashion-MNIST数据集分类
4.3.1 softmax回归基础
4.3.2 案例:Fashion-MNIST数据集分类
4.4 本章小结
第5章 卷积神经网络基础
5.1 卷积神经网络的基本结构
5.2 卷积与池化的通俗理解
5.2.1 卷积的通俗理解
5.2.2 池化的通俗理解
5.3 卷积操作
5.3.1 卷积的定义
5.3.2 填充与步长
5.3.3 多通道卷积
5.4 池化操作
5.4.1 单通道池化
5.4.2 多通道池化
5.5 CNN模型实战:手写数字识别
5.5.1 数据准备
5.5.2 构建数据读取器
5.5.3 LeNet-5网络构建及代码实现
5.5.4 模型训练
5.5.5 第一层卷积核与特征图的可视化
5.5.6 第二层卷积核与特征图的可视化
5.6 本章小结
第6章 经典CNN模型介绍
6.1 AlexNet模型原理与实现
6.1.1 AlexNet网络结构
6.1.2 AlexNet创新点
6.1.3 案例:AlexNet用于CIFAR10数据集的图片分类
6.1.4 AlexNet网络构建及代码实现
6.1.5 模型训练
6.2 VGG模型原理与实现
6.2.1 VGG网络结构
6.2.2 案例:VGG16用于CIFAR10数据集的图片分类
6.2.3 VGG网络构建及代码实现
6.2.4 模型训练
6.3 Inception V1模型原理与实现
6.3.1 Inception V1网络结构
6.3.2 Inception V1创新点
6.3.3 Inception V1网络构建及代码实现
6.3.4 模型训练
6.4 ResNet模型原理与实现
6.4.1 ResNet网络结构
6.4.2 ResNet网络构建及代码实现
6.4.3 模型训练
6.5 批量归一化
6.5.1 批量归一化的提出动机
6.5.2 批量归一化的主要思想
6.5.3 案例:带有批量归一化的模型用于猫狗数据集图片分类
6.6 数据增强
6.6.1 数据增强的核心思想
6.6.2 案例:带有数据增强的模型用于猫狗数据集图片分类
6.7 迁移学习
6.7.1 迁移学习的由来
6.7.2 迁移学习原理
6.7.3 经典案例:迁移学习如何精准定位贫困地区
6.7.4 PyTorch案例:迁移学习用于猫狗数据集图片分类
6.8 本章小结
第7章 序列模型
7.1 词向量
7.1.1 词汇表征与语义相关性
7.1.2 Word2Vec原理概述
7.1.3 Word2Vec代码实现
7.2 RNN模型
7.2.1 RNN的源起:序列预测问题
7.2.2 RNN模型原理
7.2.3 RNN模型实例:机器作诗
7.3 LSTM模型
7.3.1 RNN模型的改进:增加长期状态变量
7.3.2 LSTM模型简介
7.3.3 LSTM模型实例:自动乐曲生成
7.4 机器翻译
7.4.1 初级机器翻译技术
7.4.2 回归分析视角
7.4.3 encoder-decoder模型
7.4.4 机器翻译实例:中英文翻译
7.5 本章小结
第8章 深度生成模型
8.1 自编码器
8.1.1 自编码器简介
8.1.2 自编码器的应用案例:图像去噪
8.2 变分自编码器
8.2.1 生成模型与分布变换
8.2.2 VAE的基本原理
8.2.3 VAE图像生成示例
8.3 生成式对抗网络
8.3.1 GAN原理简介
8.3.2 GAN示例:训练DCGAN
8.4 本章小结

查看全部↓

精彩书摘

对于深度学习,你是否充满好奇?是否充满期待?你是否担心由于自己基础欠缺而导致无法入门深度学习领域?很惭愧地说,五年前当我第一次接触深度学习时,我对这三个问题的回答都是“是的”。但是作为一名奋战在教学一线的青年教师,我总是对新的领域充满求知欲,也正是带着这份好奇,我开始收集市面上与深度学习相关的书籍进行研读,这些书籍非常棒,但遗憾的是,它们可能不适合作为教材,尤其不适合非计算机背景的学生学习,而这部分学生(例如一些经管类院系下设的数据科学专业的学生)正日渐成为深度学习的最主要力量。受现有深度学习书籍的启发,并结合多年的教学经验,我深刻地感受到需要编写一本适合非计算机专业本科生的深度学习入门教材。它既要重视深度学习的理论基础,又要通俗易懂,而且还要有助于提高学生训练(调优)模型的能力。这就是本书写作的初衷。本书由浅入深地介绍深度学习的理论原理并搭配生动有趣的案例,将理论与实践相结合。

前言/序言

  2022年12月底的一天,我的朋友圈突然被一个名叫ChatGPT的人工智能产品霸屏了,人们用它来写文章、写诗、写工作周报甚至写程序代码。一时间人们围绕它展开了热烈的讨论,有人认为AI无所不能,很多人可能会面临失业问题,也有人认为,虽然ChatGPT写出的东西在很大程度上能以假乱真,但是还无法达到人类的水平。上一次大家如此津津乐道地讨论人工智能,大概是2016年AlphaGo横空出世的时候。从那时起,各大媒体争相报道人工智能时代的到来。对于大众而言,对人工智能最深刻的印象,可能来自AlphaGo,来自人脸识别、语音识别、自动翻译等有趣的应用。其实,当我们提到人工智能时,大多数时候是指这些应用背后的核心技术,即深度学习。


深度学习——基于PyTorch的实现的评论 (共 条)

分享到微博请遵守国家法律