定 價(jià):¥129.00
作 者: | (美)弗朗索瓦-肖萊 |
出版社: | 機(jī)械工業(yè)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 程序設(shè)計(jì) 計(jì)算機(jī)/網(wǎng)絡(luò) |
ISBN: | 9787111670537 | 出版時(shí)間: | 2021-04-01 | 包裝: | 平裝-膠訂 |
開(kāi)本: | 16開(kāi) | 頁(yè)數(shù): | 字?jǐn)?shù): |
目 錄
原書(shū)前言
致謝
關(guān)于本書(shū)
*部分 深度學(xué)習(xí)基礎(chǔ)
第 1章 什么是深度學(xué)習(xí)
1.1 人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)
1.1.1 人工智能
1.1.2 機(jī)器學(xué)習(xí)
1.1.3 從數(shù)據(jù)中學(xué)習(xí)表述
1.1.4 深度學(xué)習(xí)的“深”
1.1.5 通過(guò)三張圖理解深度學(xué)習(xí)的原理
1.1.6 深度學(xué)習(xí)目前能做什么
1.1.7 不要相信短期炒作
1.1.8 人工智能的潛力
1.2 在深度學(xué)習(xí)之前:機(jī)器學(xué)習(xí)簡(jiǎn)史
1.2.1 概率建?!?br />1.2.2 早期的神經(jīng)網(wǎng)絡(luò)
1.2.3 核方法
1.2.4 決策樹(shù)、隨機(jī)森林、梯度提升機(jī)
1.2.5 回到神經(jīng)網(wǎng)絡(luò)
1.2.6 是什么讓深度學(xué)習(xí)與眾不同
1.2.7 現(xiàn)代機(jī)器學(xué)習(xí)發(fā)展
1.3 為什么會(huì)有深度學(xué)習(xí)為什么是現(xiàn)在
1.3.1 硬件
1.3.2 數(shù)據(jù)
1.3.3 算法
1.3.4 新一輪投資潮
1.3.5 深度學(xué)習(xí)走向大眾
1.3.6 它會(huì)持續(xù)下去嗎
第 2章 在我們開(kāi)始前:構(gòu)建神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模塊
2.1 有關(guān)神經(jīng)網(wǎng)絡(luò)的*印象
2.2 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)表示
2.2.1 標(biāo)量(零維張量)
2.2.2 向量(一維張量)
2.2.3 矩陣(二維張量)
2.2.4 三維張量和高維張量
2.2.5 關(guān)鍵屬性
2.2.6 在 R中使用張量
2.2.7 數(shù)據(jù)批次的概念
2.2.8 數(shù)據(jù)張量的真實(shí)示例
2.2.9 向量數(shù)據(jù)
2.2.10 時(shí)間序列數(shù)據(jù)或序列數(shù)據(jù)
2.2.11 圖像數(shù)據(jù)
2.2.12 視頻數(shù)據(jù)
2.3 神經(jīng)網(wǎng)絡(luò)的齒輪:張量運(yùn)算
2.3.1 逐元素運(yùn)算
2.3.2 包含不同維度張量的運(yùn)算
2.3.3 張量點(diǎn)積
2.3.4 張量重塑
2.3.5 張量運(yùn)算的幾何解釋
2.3.6 深度學(xué)習(xí)的幾何解釋
2.4 神經(jīng)網(wǎng)絡(luò)的引擎:基于梯度的優(yōu)化
2.4.1 什么是導(dǎo)數(shù)
2.4.2 張量運(yùn)算的導(dǎo)數(shù):梯度
2.4.3 隨機(jī)梯度下降
2.4.4 鏈?zhǔn)綄?dǎo)數(shù):后向傳播算法
2.5 回顧我們的*個(gè)例子
2.6 本章小結(jié)
第 3章 神經(jīng)網(wǎng)絡(luò)入門(mén)
3.1 神經(jīng)網(wǎng)絡(luò)的剖析
3.1.1 層:深度學(xué)習(xí)的基石
3.1.2 模型:層網(wǎng)絡(luò)
3.1.3 損失函數(shù)和優(yōu)化器:配置學(xué)習(xí)過(guò)程的關(guān)鍵
3.2 Keras簡(jiǎn)介
3.2.1 Keras、TensorFlow、Theano和 CNTK
3.2.2 安裝 Keras 46 3.2.3 使用 Keras進(jìn)行開(kāi)發(fā):快速概述
3.3 建立深度學(xué)習(xí)工作站
3.3.1 讓 Keras運(yùn)行:兩個(gè)選項(xiàng)
3.3.2 在云中運(yùn)行深度學(xué)習(xí)任務(wù):優(yōu)點(diǎn)和缺點(diǎn)
3.3.3 什么是深度學(xué)習(xí)的*GPU
3.4 電影評(píng)論分類(lèi):二元分類(lèi)示例
3.4.1 IMDB數(shù)據(jù)集
3.4.2 準(zhǔn)備數(shù)據(jù)
3.4.3 構(gòu)建網(wǎng)絡(luò)
3.4.4 方法驗(yàn)證
3.4.5 使用經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)生成對(duì)新數(shù)據(jù)的預(yù)測(cè)
3.4.6 進(jìn)一步的實(shí)驗(yàn)
3.4.7 小結(jié)
3.5 新聞專(zhuān)線(xiàn)分類(lèi):多類(lèi)分類(lèi)示例
3.5.1 Reuters數(shù)據(jù)集
3.5.2 準(zhǔn)備數(shù)據(jù)
3.5.3 構(gòu)建網(wǎng)絡(luò)
3.5.4 方法驗(yàn)證
3.5.5 生成對(duì)新數(shù)據(jù)的預(yù)測(cè)
3.5.6 處理標(biāo)簽和損失的不同方式
3.5.7 具有足夠大的中間層的重要性
3.5.8 進(jìn)一步的實(shí)驗(yàn)
3.5.9 小結(jié)
3.6 預(yù)測(cè)房?jī)r(jià):一個(gè)回歸的例子
3.6.1 波士頓住房?jī)r(jià)格數(shù)據(jù)集
3.6.2 準(zhǔn)備數(shù)據(jù)
3.6.3 構(gòu)建網(wǎng)絡(luò)
3.6.4 使用 K折驗(yàn)證
3.6.5 小結(jié)
3.7 本章小結(jié)
第 4章 機(jī)器學(xué)習(xí)基礎(chǔ)
4.1 機(jī)器學(xué)習(xí)的四個(gè)分支
4.1.1 監(jiān)督學(xué)習(xí)
4.1.2 無(wú)監(jiān)督學(xué)習(xí)
4.1.3 自監(jiān)督學(xué)習(xí)
4.1.4 強(qiáng)化學(xué)習(xí)
4.2 評(píng)估機(jī)器學(xué)習(xí)模型
4.2.1 訓(xùn)練、驗(yàn)證和測(cè)試集
4.2.2 要記住的事情
4.3 數(shù)據(jù)預(yù)處理、特征工程和特征學(xué)習(xí)
4.3.1 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理
4.3.2 特征工程
4.4 過(guò)擬合和欠擬合
4.4.1 縮小網(wǎng)絡(luò)規(guī)?!?
4.4.2 添加權(quán)重正則化
4.4.3 添加 dropout
4.5 機(jī)器學(xué)習(xí)的通用工作流程
4.5.1 定義問(wèn)題并整合數(shù)據(jù)集
4.5.2 選擇衡量成功的標(biāo)準(zhǔn)
4.5.3 確定評(píng)估方案
4.5.4 準(zhǔn)備數(shù)據(jù)
4.5.5 開(kāi)發(fā)一個(gè)比基線(xiàn)更好的模型
4.5.6 擴(kuò)展:開(kāi)發(fā)一個(gè)過(guò)擬合的模型
4.5.7 正則化模型并調(diào)整超參數(shù)
4.6 本章小結(jié)
第二部分 深度學(xué)習(xí)實(shí)戰(zhàn)
第 5章 計(jì)算機(jī)視覺(jué)中的深度學(xué)習(xí)
5.1 卷積網(wǎng)絡(luò)概述
5.1.1 卷積操作
5.1.2 *池化操作
5.2 在小型數(shù)據(jù)集上從頭開(kāi)始訓(xùn)練一個(gè)卷積網(wǎng)絡(luò)
5.2.1 深度學(xué)習(xí)與小數(shù)據(jù)問(wèn)題的相關(guān)性
5.2.2 下載數(shù)據(jù)
5.2.3 構(gòu)建網(wǎng)絡(luò)
5.2.4 數(shù)據(jù)預(yù)處理
5.2.5 使用數(shù)據(jù)擴(kuò)充
5.3 使用預(yù)訓(xùn)練的卷積網(wǎng)絡(luò)
5.3.1 特征提取
5.3.2 微調(diào)
5.3.3 小結(jié)
5.4 可視化卷積網(wǎng)絡(luò)學(xué)習(xí)過(guò)程
5.4.1 可視化中間激活
5.4.2 可視化卷積網(wǎng)絡(luò)過(guò)濾器
5.4.3 可視化類(lèi)激活的熱圖
5.5 本章小結(jié)
第 6章 用于文本和序列數(shù)據(jù)的深度學(xué)習(xí)
6.1 使用文本數(shù)據(jù)
6.1.1 詞和字符的獨(dú)熱編碼
6.1.2 使用單詞嵌入
6.1.3 將其全部放在一起:從原始文本到單詞嵌入
6.1.4 小結(jié)
6.2 了解循環(huán)神經(jīng)網(wǎng)絡(luò)
6.2.1 Keras中的循環(huán)層
6.2.2 理解 LSTM 和 GRU 層
6.2.3 Keras中的一個(gè)具體的 LSTM例子
6.2.4 小結(jié)
6