注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)軟件工程及軟件方法學(xué)深度學(xué)習(xí):理論、方法與PyTorch實踐

深度學(xué)習(xí):理論、方法與PyTorch實踐

深度學(xué)習(xí):理論、方法與PyTorch實踐

定 價:¥109.00

作 者: 翟中華,孟翔宇 著
出版社: 清華大學(xué)出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302568483 出版時間: 2021-08-01 包裝:
開本: 16開 頁數(shù): 431 字數(shù):  

內(nèi)容簡介

  本書深入淺出地講解深度學(xué)習(xí),對復(fù)雜的概念深挖其本質(zhì),讓其簡單化;對簡單的概念深挖其聯(lián)系,使其豐富化。從理論知識到實戰(zhàn)項目,內(nèi)容翔實。本書分為兩篇,基礎(chǔ)篇主要講解深度學(xué)習(xí)的理論知識,實戰(zhàn)篇是代碼實踐及應(yīng)用。基礎(chǔ)篇(第1~13章)包括由傳統(tǒng)機器學(xué)習(xí)到深度學(xué)習(xí)的過渡、圖像分類的數(shù)據(jù)驅(qū)動方法、Softmax損失函數(shù)、優(yōu)化方法與梯度、卷積神經(jīng)網(wǎng)絡(luò)的各種概念、卷積過程、卷積神經(jīng)網(wǎng)絡(luò)各種訓(xùn)練技巧、梯度反傳、各種卷積網(wǎng)絡(luò)架構(gòu)、遞歸神經(jīng)網(wǎng)絡(luò)和序列模型、基于深度學(xué)習(xí)的語言模型、生成模型、生成對抗網(wǎng)絡(luò)等內(nèi)容;實戰(zhàn)篇(第14~19章)包括應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)進行圖像分類、各種網(wǎng)絡(luò)架構(gòu)、網(wǎng)絡(luò)各層可視化、貓狗圖像識別、文本分類、GAN圖像生成等。本書適合人工智能專業(yè)的本科生、研究生,想轉(zhuǎn)型人工智能的IT從業(yè)者,以及想從零開始了解并掌握深度學(xué)習(xí)的讀者閱讀。

作者簡介

  翟中華,清華大學(xué)碩士畢業(yè),AI火箭營創(chuàng)始人、CEO,并擔任首席講師。曾在多家互聯(lián)網(wǎng)公司擔任CTO。在機器學(xué)習(xí)、深度學(xué)習(xí)、計算機視覺、自然語言處理等人工智能領(lǐng)域有著扎實的理論基礎(chǔ)和豐富的應(yīng)用實踐經(jīng)驗。主講的“機器學(xué)習(xí)難點問題秒懂課堂”“深度學(xué)習(xí)入門系列講解”“基于深度學(xué)習(xí)的目標檢測”等課程累計學(xué)員50多萬人次,講課風(fēng)格抽絲剝繭、深入淺出、以簡馭繁,能夠把復(fù)雜原理簡單化,把簡單原理內(nèi)涵化,深受廣大學(xué)員好評。

圖書目錄

基礎(chǔ)篇
第1章 什么是深度學(xué)習(xí)
1.1 通過應(yīng)用示例直觀理解深度學(xué)習(xí)
1.2 3個視角解釋深度學(xué)習(xí)
1.2.1 分層組合性
1.2.2 端到端學(xué)習(xí)
1.2.3 分布式表示
1.3 深度學(xué)習(xí)面臨的挑戰(zhàn)
1.3.1 深度學(xué)習(xí)的工作機制
1.3.2 非凸的問題
1.3.3 可解釋性的問題
第2章 圖像識別及K-NN算法
2.1 圖像分類
2.2 誤差分解和K-NN算法
2.2.1 誤差分解
2.2.2 K-NN算法運行過程
第3章 線性分類器
3.1 線性分類器用于圖像分類的3個觀點
3.1.1 線性分類的代數(shù)觀點
3.1.2 線性分類的視覺觀點
3.1.3 線性分類的幾何觀點
3.2 合頁損失函數(shù)原理推導(dǎo)及圖像分類舉例
3.2.1 合頁損失函數(shù)的概念
3.2.2 多分類合頁損失函數(shù)的推導(dǎo)
3.3 Softmax損失函數(shù)與多分類SVM損失函數(shù)的比較
3.3.1 Softmax分類與損失函數(shù)
3.3.2 Softmax損失函數(shù)與合頁損失函數(shù)的比較
第4章 優(yōu)化與梯度
4.1 梯度下降法工作原理及3種普通梯度下降法
4.1.1 梯度下降的概念
4.1.2 梯度下降法求解目標函數(shù)
4.1.3 學(xué)習(xí)率的重要性
4.1.4 3種梯度下降法
4.2 動量SGD和Nesterov加速梯度法
4.2.1 SGD存在的問題
4.2.2 動量法
4.2.3 Nesterov加速梯度法
4.3 自適應(yīng)學(xué)習(xí)速率優(yōu)化方法
4.3.1 指數(shù)加權(quán)平均值處理數(shù)字序列
4.3.2 自適應(yīng)學(xué)習(xí)速率AdaGrad方法
4.3.3 自適應(yīng)學(xué)習(xí)速率RMSProp方法
4.3.4 自適應(yīng)學(xué)習(xí)速率Adadelta方法
4.4 最強優(yōu)化方法Adam
4.4.1 為什么Adam性能如此卓越
4.4.2 偏差矯正
4.4.3 如何矯正偏差
第5章 卷積神經(jīng)網(wǎng)絡(luò)
5.1 卷積核
5.1.1 卷積核簡介
5.1.2 卷積核的作用
5.2 卷積神經(jīng)網(wǎng)絡(luò)中步長、填充和通道的概念
5.2.1 步長
5.2.2 填充
5.2.3 通道
5.3 快速推導(dǎo)卷積層特征圖尺寸計算公式
5.3.1 計算過程直觀展示
5.3.2 計算過程總結(jié)
5.4 極簡方法實現(xiàn)卷積層的誤差反傳
5.4.1 誤差反傳舉例說明
5.4.2 完全卷積過程簡介
5.4.3 把卷積過程寫成神經(jīng)網(wǎng)絡(luò)形式
5.4.4 應(yīng)用計算圖的反向模式微分
5.5 極池化層的本質(zhì)思想及其過程
5.5.1 池化層的分類
5.5.2 池化后圖像尺寸
第6章 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練技巧
6.1 ReLU激活函數(shù)的優(yōu)勢
6.1.1 為什么需要激活函數(shù)
6.1.2 主流激活函數(shù)介紹
6.2 內(nèi)部協(xié)變量偏移
6.3 批歸一化
6.3.1 為什么需要批歸一化
6.3.2 批歸一化的工作原理
6.3.3 批歸一化的優(yōu)勢
6.4 Dropout正則化及其集成方法思想
6.4.1 特征共適應(yīng)性
6.4.2 Dropout正則化思想
6.4.3 Dropout集成思想
6.4.4 預(yù)測時需要恢復(fù)Dropout的隨機性
第7章 卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)
7.1 掀起深度學(xué)習(xí)風(fēng)暴的AlexNet網(wǎng)絡(luò)架構(gòu)
7.1.1 卷積神經(jīng)網(wǎng)絡(luò)的開端LeNet
7.1.2 AlexNet架構(gòu)
7.2 神經(jīng)網(wǎng)絡(luò)感受野及其計算
7.2.1 生物學(xué)中的感受野
7.2.2 CNN中的感受野
7.3 VGGNet網(wǎng)絡(luò)結(jié)構(gòu)相比較AlexNet的優(yōu)勢
7.3.1 VGGNet簡介
7.3.2 VGGNet與AlexNet網(wǎng)絡(luò)結(jié)構(gòu)對比
7.4 GoogLeNet1×1卷積核的深刻意義及其作用
7.4.1 深度神經(jīng)網(wǎng)絡(luò)的缺陷
7.4.2 多通道卷積中特征圖映射太多的問題
7.4.3 1×1卷積核卷積過程
7.5 GoogLeNet初始模塊設(shè)計指導(dǎo)思想
7.5.1 赫布學(xué)習(xí)規(guī)則
7.5.2 人工神經(jīng)網(wǎng)絡(luò)中的赫布學(xué)習(xí)規(guī)則
7.6 透徹理解GoogLeNet全景架構(gòu)
7.7 ResNet關(guān)鍵結(jié)構(gòu)恒等映射背后的思想及原理
7.8 全面理解ResNet全景架構(gòu)
第8章 循環(huán)神經(jīng)網(wǎng)絡(luò)
8.1 為什么要用遞歸神經(jīng)網(wǎng)絡(luò)
8.1.1 為什么需要遞歸神經(jīng)網(wǎng)絡(luò)
8.1.2 RNN結(jié)構(gòu)以及應(yīng)用
8.2 RNN計算圖
8.3 RNN前向與反向傳播
8.3.1 前饋深度
8.3.2 循環(huán)深度
8.3.3 通過時間反向傳播
8.3.4 兩個和的反向傳播
8.3.5 梯度消失和梯度爆炸
8.4 長短期記憶(LSTM)及其變種的原理
8.4.1 LSTM網(wǎng)絡(luò)架構(gòu)
8.4.2 LSTM變體一
8.4.3 LSTM變體二
8.4.4 LSTM變體三
第9章 基于深度學(xué)習(xí)的語言模型
9.1 詞的各種向量表示
9.2 通過詞向量度量詞的相似性
9.3 潛在語義分析LSA
9.3.1 潛在語義分析的過程
9.3.2 潛在語義分析的SVD分解
9.4 Word2Vec詞嵌入原理
9.4.1 Word2Vec的指導(dǎo)思想
9.4.2 skip-gram算法的框架
9.4.3 skip-gram算法的輸入訓(xùn)練集
9.4.4 skip-gra

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號