定 價(jià):¥49.00
作 者: | (意)吉安卡洛·扎克尼,(孟加拉)穆罕默德·禮薩·卡里姆 |
出版社: | 人民郵電出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787115478771 | 出版時(shí)間: | 2018-03-01 | 包裝: | |
開本: | 頁數(shù): | 字?jǐn)?shù): |
* 1章 深度學(xué)習(xí)入門 1
1.1 機(jī)器學(xué)習(xí)簡(jiǎn)介 1
1.1.1 監(jiān)督學(xué)習(xí) 2
1.1.2 無監(jiān)督學(xué)習(xí) 2
1.1.3 強(qiáng)化學(xué)習(xí) 3
1.2 深度學(xué)習(xí)定義 3
1.2.1 人腦的工作機(jī)制 3
1.2.2 深度學(xué)習(xí)歷史 4
1.2.3 應(yīng)用領(lǐng)域 5
1.3 神經(jīng)網(wǎng)絡(luò) 5
1.3.1 生物神經(jīng)元 5
1.3.2 人工神經(jīng)元 6
1.4 人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式 8
1.4.1 反向傳播算法 8
1.4.2 權(quán)重優(yōu)化 8
1.4.3 隨機(jī)梯度下降法 9
1.5 神經(jīng)網(wǎng)絡(luò)架構(gòu) 10
1.5.1 多層感知器 10
1.5.2 DNN架構(gòu) 11
1.5.3 卷積神經(jīng)網(wǎng)絡(luò) 12
1.5.4 受限玻爾茲曼機(jī) 12
1.6 自編碼器 13
1.7 循環(huán)神經(jīng)網(wǎng)絡(luò) 14
1.8 幾種深度學(xué)習(xí)框架對(duì)比 14
1.9 小結(jié) 16
* 2章 TensorFlow初探 17
2.1 總覽 17
2.1.1 TensorFlow 1.x版本特性 18
2.1.2 使用上的改進(jìn) 18
2.1.3 TensorFlow安裝與入門 19
2.2 在Linux上安裝TensorFlow 19
2.3 為TensorFlow啟用NVIDIA GPU 20
2.3.1 * 1步:安裝NVIDIA CUDA 20
2.3.2 * 2步:安裝NVIDIA cuDNN v5.1+ 21
2.3.3 第3步:確定GPU卡的CUDA計(jì)算能力為3.0+ 22
2.3.4 第4步:安裝libcupti-dev庫 22
2.3.5 第5步:安裝Python(或Python3) 22
2.3.6 第6步:安裝并升級(jí)PIP(或PIP3) 22
2.3.7 第7步:安裝TensorFlow 23
2.4 如何安裝TensorFlow 23
2.4.1 直接使用pip安裝 23
2.4.2 使用virtualenv安裝 24
2.4.3 從源代碼安裝 26
2.5 在Windows上安裝TensorFlow 27
2.5.1 在虛擬機(jī)上安裝TensorFlow 27
2.5.2 直接安裝到Windows 27
2.6 測(cè)試安裝是否成功 28
2.7 計(jì)算圖 28
2.8 為何采用計(jì)算圖 29
2.9 編程模型 30
2.10 數(shù)據(jù)模型 33
2.10.1 階 33
2.10.2 形狀 33
2.10.3 數(shù)據(jù)類型 34
2.10.4 變量 36
2.10.5 取回 37
2.10.6 注入 38
2.11 TensorBoard 38
2.12 實(shí)現(xiàn)一個(gè)單輸入神經(jīng)元 39
2.13 單輸入神經(jīng)元源代碼 43
2.14 遷移到TensorFlow 1.x版本 43
2.14.1 如何用腳本升級(jí) 44
2.14.2 局限 47
2.14.3 手動(dòng)升級(jí)代碼 47
2.14.4 變量 47
2.14.5 匯總函數(shù) 47
2.14.6 簡(jiǎn)化的數(shù)學(xué)操作 48
2.14.7 其他事項(xiàng) 49
2.15 小結(jié) 49
第3章 用TensorFlow構(gòu)建前饋
神經(jīng)網(wǎng)絡(luò) 51
3.1 前饋神經(jīng)網(wǎng)絡(luò)介紹 51
3.1.1 前饋和反向傳播 52
3.1.2 權(quán)重和偏差 53
3.1.3 傳遞函數(shù) 53
3.2 手寫數(shù)字分類 54
3.3 探究MNIST數(shù)據(jù)集 55
3.4 Softmax分類器 57
3.5 TensorFlow模型的保存和還原 63
3.5.1 保存模型 63
3.5.2 還原模型 63
3.5.3 Softmax源代碼 65
3.5.4 Softmax啟動(dòng)器源代碼 66
3.6 實(shí)現(xiàn)一個(gè)五層神經(jīng)網(wǎng)絡(luò) 67
3.6.1 可視化 69
3.6.2 五層神經(jīng)網(wǎng)絡(luò)源代碼 70
3.7 ReLU分類器 72
3.8 可視化 73
3.9 Dropout優(yōu)化 76
3.10 可視化 78
3.11 小結(jié) 80
第4章 TensorFlow與卷積神經(jīng)網(wǎng)絡(luò) 82
4.1 CNN簡(jiǎn)介 82
4.2 CNN架構(gòu) 84
4.3 構(gòu)建你的* 一個(gè)CNN 86
4.4 CNN表情識(shí)別 95
4.4.1 表情分類器源代碼 104
4.4.2 使用自己的圖像測(cè)試模型 107
4.4.3 源代碼 109
4.5 小結(jié) 111
第5章 優(yōu)化TensorFlow自編碼器 112
5.1 自編碼器簡(jiǎn)介 112
5.2 實(shí)現(xiàn)一個(gè)自編碼器 113
5.3 增強(qiáng)自編碼器的魯棒性 119
5.4 構(gòu)建去噪自編碼器 120
5.5 卷積自編碼器 127
5.5.1 編碼器 127
5.5.2 解碼器 128
5.5.3 卷積自編碼器源代碼 134
5.6 小結(jié) 138
第6章 循環(huán)神經(jīng)網(wǎng)絡(luò) 139
6.1 RNN的基本概念 139
6.2 RNN的工作機(jī)制 140
6.3 RNN的展開 140
6.4 梯度消失問題 141
6.5 LSTM網(wǎng)絡(luò) 142
6.6 RNN圖像分類器 143
6.7 雙向RNN 149
6.8 文本預(yù)測(cè) 155
6.8.1 數(shù)據(jù)集 156
6.8.2 困惑度 156
6.8.3 PTB模型 156
6.8.4 運(yùn)行例程 157
6.9 小結(jié) 158
第7章 GPU計(jì)算 160
7.1 GPGPU計(jì)算 160
7.2 GPGPU的歷史 161
7.3 CUDA架構(gòu) 161
7.4 GPU編程模型 162
7.5 TensorFlow中GPU的設(shè)置 163
7.6 TensorFlow的GPU管理 165
7.7 GPU內(nèi)存管理 168
7.8 在多GPU系統(tǒng)上分配單個(gè)GPU 168
7.9 使用多個(gè)GPU 170
7.10 小結(jié) 171
第8章 TensorFlow高 級(jí)編程 172
8.1 Keras簡(jiǎn)介 172
8.2 構(gòu)建深度學(xué)習(xí)模型 174
8.3 影評(píng)的情感分類 175
8.4 添加一個(gè)卷積層 179
8.5 Pretty Tensor 181
8.6 數(shù)字分類器 182
8.7 TFLearn 187
8.8 泰坦尼克號(hào)幸存者預(yù)測(cè)器 188
8.9 小結(jié) 191
第9章 TensorFlow高 級(jí)多媒體編程 193
9.1 多媒體分析簡(jiǎn)介 193
9.2 基于深度學(xué)習(xí)的大型對(duì)象檢測(cè) 193
9.2.1 瓶頸層 195
9.2.2 使用重訓(xùn)練的模型 195
9.3 加速線性代數(shù) 197
9.3.1 TensorFlow的核心優(yōu)勢(shì) 197
9.3.2 加速線性代數(shù)的準(zhǔn)時(shí)編譯 197
9.4 TensorFlow和Keras 202
9.4.1 Keras簡(jiǎn)介 202
9.4.2 擁有Keras的好處 203
9.4.3 視頻問答系統(tǒng) 203
9.5 Android上的深度學(xué)習(xí) 209
9.5.1 TensorFlow演示程序 209
9.5.2 Android入門 211
9.6 小結(jié) 214
* 10章 強(qiáng)化學(xué)習(xí) 215
10.1 強(qiáng)化學(xué)習(xí)基本概念 216
10.2 Q-learning算法 217
10.3 OpenAI Gym框架簡(jiǎn)介 218
10.4 FrozenLake-v0實(shí)現(xiàn)問題 220
10.5 使用TensorFlow實(shí)現(xiàn)Q-learning 223
10.6 小結(jié) 227