定 價:¥109.00
作 者: | 吳茂貴,郁明敏,楊本法,李濤 |
出版社: | 機械工業(yè)出版社 |
叢編項: | |
標 簽: | 暫缺 |
ISBN: | 9787111718802 | 出版時間: | 2023-02-01 | 包裝: | 平裝-膠訂 |
開本: | 16開 | 頁數(shù): | 字數(shù): |
前言
第1版前言
第一部分 PyTorch基礎
第1章 NumPy基礎知識2
1.1 生成NumPy數(shù)組3
1.1.1 數(shù)組屬性4
1.1.2 利用已有數(shù)據(jù)生成數(shù)組4
1.1.3 利用 random 模塊生成數(shù)組5
1.1.4 生成特定形狀的多維數(shù)組7
1.1.5 利用arange、linspace
函數(shù)生成數(shù)組8
1.2 讀取數(shù)據(jù)9
1.3 NumPy的算術運算11
1.3.1 逐元素操作11
1.3.2 點積運算12
1.4 數(shù)組變形13
1.4.1 修改數(shù)組的形狀13
1.4.2 合并數(shù)組16
1.5 批處理19
1.6 節(jié)省內(nèi)存20
1.7 通用函數(shù)21
1.8 廣播機制23
1.9 小結24
第2章 PyTorch基礎知識25
2.1 為何選擇PyTorch25
2.2 PyTorch的安裝配置26
2.2.1 安裝CPU版PyTorch26
2.2.2 安裝GPU版PyTorch28
2.3 Jupyter Notebook環(huán)境配置30
2.4 NumPy與Tensor31
2.4.1 Tensor概述31
2.4.2 創(chuàng)建Tensor32
2.4.3 修改Tensor形狀34
2.4.4 索引操作35
2.4.5 廣播機制35
2.4.6 逐元素操作36
2.4.7 歸并操作37
2.4.8 比較操作37
2.4.9 矩陣操作38
2.4.10 PyTorch與NumPy比較39
2.5 Tensor與autograd39
2.5.1 自動求導要點40
2.5.2 計算圖40
2.5.3 標量反向傳播41
2.5.4 非標量反向傳播42
2.5.5 切斷一些分支的反向傳播45
2.6 使用NumPy實現(xiàn)機器學習任務47
2.7 使用Tensor及autograd實現(xiàn)機器
學習任務49
2.8 使用優(yōu)化器及自動微分實現(xiàn)機器
學習任務51
2.9 把數(shù)據(jù)集轉換為帶批量處理功能的
迭代器52
2.10 使用TensorFlow 2實現(xiàn)機器
學習任務54
2.11 小結55
第3章 PyTorch神經(jīng)網(wǎng)絡工具箱56
3.1 神經(jīng)網(wǎng)絡核心組件56
3.2 構建神經(jīng)網(wǎng)絡的主要工具57
3.2.1 nn.Module57
3.2.2 nn.functional58
3.3 構建模型59
3.3.1 繼承nn.Module基類構建模型59
3.3.2 使用nn.Sequential按層
順序構建模型60
3.3.3 繼承nn.Module基類并應用
模型容器來構建模型63
3.3.4 自定義網(wǎng)絡模塊66
3.4 訓練模型68
3.5 實現(xiàn)神經(jīng)網(wǎng)絡實例69
3.5.1 背景說明69
3.5.2 準備數(shù)據(jù)70
3.5.3 可視化源數(shù)據(jù)71
3.5.4 構建模型72
3.5.5 訓練模型72
3.6 小結74
第4章 PyTorch數(shù)據(jù)處理工具箱75
4.1 數(shù)據(jù)處理工具箱概述75
4.2 utils.data76
4.3 torchvision78
4.3.1 transforms78
4.3.2 ImageFolder79
4.4 可視化工具81
4.4.1 TensorBoard簡介81
4.4.2 用TensorBoard可視化
神經(jīng)網(wǎng)絡82
4.4.3 用TensorBoard可視化損失值83
4.4.4 用TensorBoard可視化特征圖84
4.5 小結85
第二部分 深度學習基礎
第5 章 機器學習基礎88
5.1 機器學習的基本任務88
5.1.1 監(jiān)督學習89
5.1.2 無監(jiān)督學習89
5.1.3 半監(jiān)督學習90
5.1.4 強化學習90
5.2 機器學習的一般流程90
5.2.1 明確目標91
5.2.2 收集數(shù)據(jù)91
5.2.3 數(shù)據(jù)探索與預處理91
5.2.4 選擇模型及損失函數(shù)91
5.2.5 評估及優(yōu)化模型92
5.3 過擬合與欠擬合93
5.3.1 權重正則化93
5.3.2 dropout正則化94
5.3.3 批量歸一化97
5.3.4 層歸一化99
5.3.5 權重初始化99
5.4 選擇合適的激活函數(shù)100
5.5 選擇合適的損失函數(shù)101
5.6 選擇合適的優(yōu)化器103
5.6.1 傳統(tǒng)梯度優(yōu)化算法104
5.6.2 批量隨機梯度下降法105
5.6.3 動量算法106
5.6.4 Nesterov動量算法108
5.6.5 AdaGrad算法109
5.6.6 RMSProp算法111
5.6.7 Adam算法112
5.6.8 Yogi算法113
5.6.9 使用優(yōu)化算法實例114
5.7 GPU加速116
5.7.1 單GPU加速116
5.7.2 多GPU加速117
5.7.3 使用GPU時的注意事項120
5.8 小結121
第6章 視覺處理基礎122
6.1 從全連接層到卷積層122
6.1.1 圖像的兩個特性123
6.1.2 卷積神經(jīng)網(wǎng)絡概述124
6.2 卷積層125
6.2.1 卷積核127
6.2.2 步幅129
6.2.3 填充130
6.2.4 多通道上的卷積131
6.2.5 激活函數(shù)134
6.2.6 卷積函數(shù)135
6.2.7 轉置卷積136
6.2.8 特征圖與感受野137
6.2.9 全卷積網(wǎng)絡138
6.3 池化層139
6.3.1 局部池化140
6.3.2 全局池化140
6.4 現(xiàn)代經(jīng)典網(wǎng)絡142
6.4.1 LeNet-5模型142
6.4.2 AlexNet模型143
6.4.3 VGG模型143
6.4.4 GoogLeNet模型144
6.4.5 ResNet模型145
6.4.6 DenseNet模型146
6.4.7 CapsNet模型148
6.5 使用卷積神經(jīng)網(wǎng)絡實現(xiàn)CIFAR10
多分類149<>