定 價:¥69.00
作 者: | 王曉華 |
出版社: | 清華大學(xué)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787302552734 | 出版時間: | 2020-06-01 | 包裝: | |
開本: | 16開 | 頁數(shù): | 233 | 字?jǐn)?shù): |
第1章 TensorFlow 2.0的安裝
1.1 Python基本安裝和用法
1.1.1 Anaconda的下載與安裝
1.1.2 Python編譯器PyCharm的安裝
1.1.3 使用Python計(jì)算softmax函數(shù)
1.2 TensorFlow 2.0 GPU版本的安裝
1.2.1 檢測Anaconda中的TensorFlow版本
1.2.2 TensorFlow 2.0 GPU版本基礎(chǔ)顯卡推薦和前置軟件安裝
1.3 Hello TensorFlow 2.
1.4 本章小結(jié)
第2章 TensorFlow 2.0令人期待的變化
2.1 新的架構(gòu)、新的運(yùn)行、新的開始
2.1.1 API精簡
2.1.2 Eager Execution
2.1.3 取消全局變量
2.1.4 使用函數(shù)而不是會話
2.1.5 棄用collection
2.2 配角轉(zhuǎn)成主角:從TensorFlow Eager Execution轉(zhuǎn)正談起
2.2.1 Eager簡介與調(diào)用
2.2.2 讀取數(shù)據(jù)
2.3 使用TensorFlow 2.0模式進(jìn)行線性回歸的一個簡單例子
2.3.1 模型的工具與數(shù)據(jù)的生成
2.3.2 模型的定義
2.3.3 損失函數(shù)的定義
2.3.4 梯度函數(shù)的更新計(jì)算
2.4 TensorFlow 2.0進(jìn)階-AutoGraph和t£缸lcdon
2.5 本章小結(jié)
第3章 TensorFlow和Keras
3.1 模型!模型!模型!還是模型
3.2 使用Keras API實(shí)現(xiàn)鳶尾花分類的例子(順序模式)
3.2.1 數(shù)據(jù)的準(zhǔn)備
3.2.2 數(shù)據(jù)的處理
3.2.3 梯度更新函數(shù)的寫法
3.2.4 使用Keras函數(shù)式編程實(shí)現(xiàn)鳶尾花分類的例子(重點(diǎn))
3.2.5 使用保存的Keras模式對模型進(jìn)行復(fù)用
3.2.6 使用TensorFlow 2.0標(biāo)準(zhǔn)化編譯對iris模型進(jìn)行擬合
3.3 多輸入單一輸出TensorFlow 2.0編譯方法(選學(xué))
3.3.1 數(shù)據(jù)的獲取與處理
3.3.2 模型的建立
3.3.3 數(shù)據(jù)的組合
3.4 多輸入多輸出TensorFlow 2.0編譯方法(選學(xué))
3.5 全連接層詳解
3.5.1 全連接層的定義與實(shí)現(xiàn)
3.5.2 使用TensorFlow 2.0自帶的API實(shí)現(xiàn)全連接層
3.5.3 打印顯示TensorFlow 2.0設(shè)計(jì)的模型結(jié)構(gòu)和參數(shù)
3.6 本章小結(jié)
第4章 TensorFlow 2.0語法基礎(chǔ)
4.1 BP神經(jīng)網(wǎng)絡(luò)簡介
4.2 BP神經(jīng)網(wǎng)絡(luò)的兩個基礎(chǔ)算法
4.2.1 最小二乘法(LS算法)
4.2.2 道士下山的故事——梯度下降算法
4.3 反饋神經(jīng)網(wǎng)絡(luò)反向傳播算法
4.3.1 深度學(xué)習(xí)基礎(chǔ)
4.3.2 鏈?zhǔn)角髮?dǎo)法則
4.3.3 反饋神經(jīng)網(wǎng)絡(luò)原理與公式推導(dǎo)
4.3.4 反饋神經(jīng)網(wǎng)絡(luò)原理的激活函數(shù)
4.3.5 反饋神經(jīng)網(wǎng)絡(luò)原理的Python實(shí)現(xiàn)
4.4 本章小結(jié)
第5章 卷積層與MNIST實(shí)戰(zhàn)
5.1 卷積運(yùn)算
5.1.1 卷積運(yùn)算的基本概念
5.1.2 TensorFlow2.0中卷積函數(shù)的實(shí)現(xiàn)
5.1.3 池化運(yùn)算
5.1.4 softmax激活函數(shù)
5.1.5 卷積神經(jīng)網(wǎng)絡(luò)原理
5.2 TensorFlow2.0編程實(shí)戰(zhàn):MNIST手寫體識別
5.2.1 MNIST數(shù)據(jù)集
5.2.2 MNIST數(shù)據(jù)集特征和標(biāo)注
5.2.3 TensorFlow2.0編程實(shí)戰(zhàn):MNIST數(shù)據(jù)集
5.2.4 使用自定義的卷積層實(shí)現(xiàn)MNIST識別
5.3 本章小結(jié)
……
第6章 TensorFlow 2.0 Dataset使用詳解
第7章 TensorFlow Datasets和TensorBoard詳解
第8章 從冠軍開始:ResNet
第9章 注意力機(jī)制
第10章 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn):識文斷字也可以