注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)工業(yè)技術(shù)建筑科學(xué)建筑設(shè)計(jì)R語(yǔ)言深度學(xué)習(xí)

R語(yǔ)言深度學(xué)習(xí)

R語(yǔ)言深度學(xué)習(xí)

定 價(jià):¥129.00

作 者: (美)弗朗索瓦-肖萊
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 程序設(shè)計(jì) 計(jì)算機(jī)/網(wǎng)絡(luò)

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111670537 出版時(shí)間: 2021-04-01 包裝: 平裝-膠訂
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

暫缺《R語(yǔ)言深度學(xué)習(xí)》簡(jiǎn)介

作者簡(jiǎn)介

暫缺《R語(yǔ)言深度學(xué)習(xí)》作者簡(jiǎn)介

圖書(shū)目錄

目 錄
原書(shū)前言
致謝
關(guān)于本書(shū)
*部分 深度學(xué)習(xí)基礎(chǔ)
第 1章 什么是深度學(xué)習(xí) 
1.1 人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí) 
1.1.1 人工智能 
1.1.2 機(jī)器學(xué)習(xí) 
1.1.3 從數(shù)據(jù)中學(xué)習(xí)表述 
1.1.4 深度學(xué)習(xí)的“深” 
1.1.5 通過(guò)三張圖理解深度學(xué)習(xí)的原理 
1.1.6 深度學(xué)習(xí)目前能做什么 
1.1.7 不要相信短期炒作 
1.1.8 人工智能的潛力 
1.2 在深度學(xué)習(xí)之前:機(jī)器學(xué)習(xí)簡(jiǎn)史 
1.2.1 概率建?!?br />1.2.2 早期的神經(jīng)網(wǎng)絡(luò) 
1.2.3 核方法 
1.2.4 決策樹(shù)、隨機(jī)森林、梯度提升機(jī) 
1.2.5 回到神經(jīng)網(wǎng)絡(luò) 
1.2.6 是什么讓深度學(xué)習(xí)與眾不同 
1.2.7 現(xiàn)代機(jī)器學(xué)習(xí)發(fā)展 
1.3 為什么會(huì)有深度學(xué)習(xí)為什么是現(xiàn)在 
1.3.1 硬件 
1.3.2 數(shù)據(jù) 
1.3.3 算法 
1.3.4 新一輪投資潮 
1.3.5 深度學(xué)習(xí)走向大眾 
1.3.6 它會(huì)持續(xù)下去嗎 
第 2章 在我們開(kāi)始前:構(gòu)建神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模塊 
2.1 有關(guān)神經(jīng)網(wǎng)絡(luò)的*印象 
2.2 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)表示 
2.2.1 標(biāo)量(零維張量) 
2.2.2 向量(一維張量) 
2.2.3 矩陣(二維張量) 
2.2.4 三維張量和高維張量 
2.2.5 關(guān)鍵屬性 
2.2.6 在 R中使用張量 
2.2.7 數(shù)據(jù)批次的概念 
2.2.8 數(shù)據(jù)張量的真實(shí)示例 
2.2.9 向量數(shù)據(jù) 
2.2.10 時(shí)間序列數(shù)據(jù)或序列數(shù)據(jù) 
2.2.11 圖像數(shù)據(jù) 
2.2.12 視頻數(shù)據(jù) 
2.3 神經(jīng)網(wǎng)絡(luò)的齒輪:張量運(yùn)算 
2.3.1 逐元素運(yùn)算 
2.3.2 包含不同維度張量的運(yùn)算 
2.3.3 張量點(diǎn)積 
2.3.4 張量重塑 
2.3.5 張量運(yùn)算的幾何解釋 
2.3.6 深度學(xué)習(xí)的幾何解釋
2.4 神經(jīng)網(wǎng)絡(luò)的引擎:基于梯度的優(yōu)化 
2.4.1 什么是導(dǎo)數(shù) 
2.4.2 張量運(yùn)算的導(dǎo)數(shù):梯度 
2.4.3 隨機(jī)梯度下降 
2.4.4 鏈?zhǔn)綄?dǎo)數(shù):后向傳播算法 
2.5 回顧我們的*個(gè)例子 
2.6 本章小結(jié) 
第 3章 神經(jīng)網(wǎng)絡(luò)入門(mén) 
3.1 神經(jīng)網(wǎng)絡(luò)的剖析 
3.1.1 層:深度學(xué)習(xí)的基石 
3.1.2 模型:層網(wǎng)絡(luò) 
3.1.3 損失函數(shù)和優(yōu)化器:配置學(xué)習(xí)過(guò)程的關(guān)鍵 
3.2 Keras簡(jiǎn)介 
3.2.1 Keras、TensorFlow、Theano和 CNTK 
3.2.2 安裝 Keras 46 3.2.3 使用 Keras進(jìn)行開(kāi)發(fā):快速概述 
3.3 建立深度學(xué)習(xí)工作站 
3.3.1 讓 Keras運(yùn)行:兩個(gè)選項(xiàng) 
3.3.2 在云中運(yùn)行深度學(xué)習(xí)任務(wù):優(yōu)點(diǎn)和缺點(diǎn) 
3.3.3 什么是深度學(xué)習(xí)的*GPU
3.4 電影評(píng)論分類(lèi):二元分類(lèi)示例 
3.4.1 IMDB數(shù)據(jù)集 
3.4.2 準(zhǔn)備數(shù)據(jù) 
3.4.3 構(gòu)建網(wǎng)絡(luò) 
3.4.4 方法驗(yàn)證 
3.4.5 使用經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)生成對(duì)新數(shù)據(jù)的預(yù)測(cè) 
3.4.6 進(jìn)一步的實(shí)驗(yàn) 
3.4.7 小結(jié) 
3.5 新聞專(zhuān)線(xiàn)分類(lèi):多類(lèi)分類(lèi)示例 
3.5.1 Reuters數(shù)據(jù)集 
3.5.2 準(zhǔn)備數(shù)據(jù) 
3.5.3 構(gòu)建網(wǎng)絡(luò) 
3.5.4 方法驗(yàn)證 
3.5.5 生成對(duì)新數(shù)據(jù)的預(yù)測(cè) 
3.5.6 處理標(biāo)簽和損失的不同方式 
3.5.7 具有足夠大的中間層的重要性 
3.5.8 進(jìn)一步的實(shí)驗(yàn) 
3.5.9 小結(jié) 
3.6 預(yù)測(cè)房?jī)r(jià):一個(gè)回歸的例子 
3.6.1 波士頓住房?jī)r(jià)格數(shù)據(jù)集 
3.6.2 準(zhǔn)備數(shù)據(jù) 
3.6.3 構(gòu)建網(wǎng)絡(luò) 
3.6.4 使用 K折驗(yàn)證 
3.6.5 小結(jié)
3.7 本章小結(jié) 
第 4章 機(jī)器學(xué)習(xí)基礎(chǔ) 
4.1 機(jī)器學(xué)習(xí)的四個(gè)分支 
4.1.1 監(jiān)督學(xué)習(xí) 
4.1.2 無(wú)監(jiān)督學(xué)習(xí) 
4.1.3 自監(jiān)督學(xué)習(xí) 
4.1.4 強(qiáng)化學(xué)習(xí) 
4.2 評(píng)估機(jī)器學(xué)習(xí)模型 
4.2.1 訓(xùn)練、驗(yàn)證和測(cè)試集 
4.2.2 要記住的事情 
4.3 數(shù)據(jù)預(yù)處理、特征工程和特征學(xué)習(xí) 
4.3.1 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理 
4.3.2 特征工程 
4.4 過(guò)擬合和欠擬合 
4.4.1 縮小網(wǎng)絡(luò)規(guī)?!?
4.4.2 添加權(quán)重正則化 
4.4.3 添加 dropout 
4.5 機(jī)器學(xué)習(xí)的通用工作流程 
4.5.1 定義問(wèn)題并整合數(shù)據(jù)集 
4.5.2 選擇衡量成功的標(biāo)準(zhǔn) 
4.5.3 確定評(píng)估方案 
4.5.4 準(zhǔn)備數(shù)據(jù) 
4.5.5 開(kāi)發(fā)一個(gè)比基線(xiàn)更好的模型 
4.5.6 擴(kuò)展:開(kāi)發(fā)一個(gè)過(guò)擬合的模型 
4.5.7 正則化模型并調(diào)整超參數(shù) 
4.6 本章小結(jié) 
第二部分 深度學(xué)習(xí)實(shí)戰(zhàn)
第 5章 計(jì)算機(jī)視覺(jué)中的深度學(xué)習(xí) 
5.1 卷積網(wǎng)絡(luò)概述 
5.1.1 卷積操作 
5.1.2 *池化操作 
5.2 在小型數(shù)據(jù)集上從頭開(kāi)始訓(xùn)練一個(gè)卷積網(wǎng)絡(luò) 
5.2.1 深度學(xué)習(xí)與小數(shù)據(jù)問(wèn)題的相關(guān)性 
5.2.2 下載數(shù)據(jù) 
5.2.3 構(gòu)建網(wǎng)絡(luò) 
5.2.4 數(shù)據(jù)預(yù)處理 
5.2.5 使用數(shù)據(jù)擴(kuò)充 
5.3 使用預(yù)訓(xùn)練的卷積網(wǎng)絡(luò) 
5.3.1 特征提取 
5.3.2 微調(diào) 
5.3.3 小結(jié) 
5.4 可視化卷積網(wǎng)絡(luò)學(xué)習(xí)過(guò)程 
5.4.1 可視化中間激活 
5.4.2 可視化卷積網(wǎng)絡(luò)過(guò)濾器
5.4.3 可視化類(lèi)激活的熱圖
5.5 本章小結(jié) 
第 6章 用于文本和序列數(shù)據(jù)的深度學(xué)習(xí) 
6.1 使用文本數(shù)據(jù) 
6.1.1 詞和字符的獨(dú)熱編碼 
6.1.2 使用單詞嵌入 
6.1.3 將其全部放在一起:從原始文本到單詞嵌入 
6.1.4 小結(jié) 
6.2 了解循環(huán)神經(jīng)網(wǎng)絡(luò) 
6.2.1 Keras中的循環(huán)層 
6.2.2 理解 LSTM 和 GRU 層 
6.2.3 Keras中的一個(gè)具體的 LSTM例子 
6.2.4 小結(jié) 
6

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)