注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書教育/教材/教輔教材職業(yè)技術(shù)培訓(xùn)教材深度學(xué)習(xí)

深度學(xué)習(xí)

深度學(xué)習(xí)

定 價:¥52.00

作 者: 劉玉良
出版社: 西安電子科技大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787560655000 出版時間: 2020-03-01 包裝:
開本: 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  深度學(xué)習(xí)理論由Hinton等人于2006年提出,其概念源于對人工神經(jīng)網(wǎng)絡(luò)的研究。深度學(xué)習(xí)技術(shù)通過組合數(shù)據(jù)的低層特征形成更加抽象的高層屬性,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示?!渡疃葘W(xué)習(xí)》主要闡述基于深度學(xué)習(xí)理論的一些模型和算法。全書共分為8章,主要內(nèi)容包括緒論、TensorFlow和Keras簡介、簡單神經(jīng)網(wǎng)絡(luò)、圖像類數(shù)據(jù)處理、序列類數(shù)據(jù)處理、深度學(xué)習(xí)模型優(yōu)化、數(shù)據(jù)和模型的處理與調(diào)試、現(xiàn)代深度學(xué)習(xí)模型概述。附錄給出了基于深度學(xué)習(xí)的視頻目標(biāo)跟蹤研究進(jìn)展綜述和Q-Learning算法的參考代碼。為便于學(xué)習(xí)和參考,各章均包含豐富的思考題?!渡疃葘W(xué)習(xí)》主要面向工科院校人工智能、模式識別、數(shù)據(jù)挖掘和深度學(xué)習(xí)等專業(yè)的本科生,也可供相關(guān)專業(yè)的研究生和工程技術(shù)人員參考。

作者簡介

暫缺《深度學(xué)習(xí)》作者簡介

圖書目錄

第1章 緒論
1.1 引言
1.2 基本術(shù)語
1.3 監(jiān)督學(xué)習(xí)算法
1.3.1 支持向量機(jī)
1.3.2 決策樹
1.4 無監(jiān)督學(xué)習(xí)算法
1.4.1 主成分分析
1.4.2 K-均值聚類
1.5 機(jī)器學(xué)習(xí)
1.6 深度學(xué)習(xí)的趨勢
1.6.1 與日俱增的數(shù)據(jù)量
1.6.2 愈發(fā)龐大的計算資源
1.6.3 越來越高的性能以及解決實際問題的潛力
思考題
參考文獻(xiàn)
第2章 TensorFlow和Keras簡介
2.1 TensorFlow簡介
2.1.1 概述
2.1.2 TensorFlow的使用
2.1.3 TensorFlow的可視化
2.2 Keras簡介
2.2.1 Keras概述
2.2.2 Keras的使用
2.2.3 Keras的可視化
思考題
參考文獻(xiàn)
第3章 簡單神經(jīng)網(wǎng)絡(luò)
3.1 人腦是如何學(xué)習(xí)的
3.2 模仿人腦——神經(jīng)元(感知器)
3.3 非線性神經(jīng)元
3.4 神經(jīng)網(wǎng)絡(luò)架構(gòu)
3.5 梯度下降
3.5.1 代價函數(shù)
3.5.2 梯度下降
3.6 反向傳播
3.6.1 多層神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)表示
3.6.2 反向傳播算法原理
3.7 實現(xiàn)簡單神經(jīng)網(wǎng)絡(luò)
思考題
參考文獻(xiàn)
第4章 圖像類數(shù)據(jù)處理
4.1 二維卷積神經(jīng)網(wǎng)絡(luò)的基本原理
4.1.1 卷積神經(jīng)網(wǎng)絡(luò)的原理
4.1.2 參數(shù)共享
4.1.3 池化
4.1.4 分類原理
4.2 簡單卷積神經(jīng)網(wǎng)絡(luò)實例
4.3 過度擬合
4.3.1 容量、過擬合與欠擬合的基本概念
4.3.2 數(shù)據(jù)集增強(qiáng)
4.3.3 L2正則化一
4.3.4 L1正則化
4.3.5 Dropout
4.3.6 提前終止
4.4 時間優(yōu)化
4.4.1 交叉熵代價函數(shù)
4.4.2 批標(biāo)準(zhǔn)化
4.4.3 隨機(jī)梯度下降
4.4.4 動量
4.4.5 Nesterov動量
4.5 綜合二維卷積神經(jīng)網(wǎng)絡(luò)實例
思考題
參考文獻(xiàn)
第5章 序列類數(shù)據(jù)處理
5.1 一維卷積神經(jīng)網(wǎng)絡(luò)
5.1.1 一維卷積神經(jīng)網(wǎng)絡(luò)的原理
5.1.2 一維卷積神經(jīng)網(wǎng)絡(luò)實例
5.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
5.2.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理
5.2.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出
5.2.3 上下文依賴型數(shù)據(jù)處理
5.2.4 序列到序列的數(shù)據(jù)處理
5.3 遞歸神經(jīng)網(wǎng)絡(luò)
5.3.1 遞歸神經(jīng)網(wǎng)絡(luò)的基本原理
5.3.2 長期依賴性
5.4 長短期記憶LSTM網(wǎng)絡(luò)
5.4.1 長短期記憶網(wǎng)絡(luò)的基本原理
5.4.2 長短期記憶網(wǎng)絡(luò)工程實例
思考題
參考文獻(xiàn)
第6章 深度學(xué)習(xí)模型優(yōu)化
6.1 參數(shù)初始化
6.2 超參數(shù)尋優(yōu)算法
6.2.1 手動超參數(shù)尋優(yōu)
6.2.2 超參數(shù)尋優(yōu)算法
6.3 基于梯度的自適應(yīng)學(xué)習(xí)算法
6.3.1 AdaGrad算法一
6.3.2 RMSProp算法
6.3.3 Adam算法
6.4 生成對抗神經(jīng)網(wǎng)絡(luò)及實例
6.5 遷移學(xué)習(xí)及實例
6.6 強(qiáng)化學(xué)習(xí)
6.7 模型優(yōu)化的局限性
6.7.1 局部極小值
6.7.2 梯度消失、梯度爆炸與懸崖
6.7.3 鞍點
6.7.4 長期依賴
6.7.5 梯度的非精確性
思考題
參考文獻(xiàn)
第7章 數(shù)據(jù)和模型的處理與調(diào)試
7.1 模型評價
7.2 數(shù)據(jù)預(yù)處理
7.3 基礎(chǔ)模型的選擇
7.4 模型調(diào)試
思考題
參考文獻(xiàn)
第8章 現(xiàn)代深度學(xué)習(xí)模型概述
8.1 玻爾茲曼機(jī)
8.1.1 標(biāo)準(zhǔn)玻爾茲曼機(jī)
8.1.2 受限玻爾茲曼機(jī)
8.1.3 深層玻爾茲曼機(jī)
8.2 自編碼器
8.2.1 標(biāo)準(zhǔn)自編碼器
8.2.2 稀疏自編碼器
8.2.3 降噪自編碼器
8.3 深度信念網(wǎng)絡(luò)及實例
8.4 殘差神經(jīng)網(wǎng)絡(luò)及實例
8.5 膠囊神經(jīng)網(wǎng)絡(luò)及實例
思考題
參考文獻(xiàn)
附錄
附錄A 基于深度學(xué)習(xí)的視頻目標(biāo)跟蹤研究進(jìn)展綜述
附錄B Q-Learning算法的參考代碼

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號