注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)工業(yè)技術(shù)建筑科學(xué)建筑設(shè)計R語言深度學(xué)習(xí)

R語言深度學(xué)習(xí)

R語言深度學(xué)習(xí)

定 價:¥129.00

作 者: (美)弗朗索瓦-肖萊
出版社: 機械工業(yè)出版社
叢編項:
標 簽: 程序設(shè)計 計算機/網(wǎng)絡(luò)

ISBN: 9787111670537 出版時間: 2021-04-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

暫缺《R語言深度學(xué)習(xí)》簡介

作者簡介

暫缺《R語言深度學(xué)習(xí)》作者簡介

圖書目錄

目 錄
原書前言
致謝
關(guān)于本書
*部分 深度學(xué)習(xí)基礎(chǔ)
第 1章 什么是深度學(xué)習(xí) 
1.1 人工智能、機器學(xué)習(xí)和深度學(xué)習(xí) 
1.1.1 人工智能 
1.1.2 機器學(xué)習(xí) 
1.1.3 從數(shù)據(jù)中學(xué)習(xí)表述 
1.1.4 深度學(xué)習(xí)的“深” 
1.1.5 通過三張圖理解深度學(xué)習(xí)的原理 
1.1.6 深度學(xué)習(xí)目前能做什么 
1.1.7 不要相信短期炒作 
1.1.8 人工智能的潛力 
1.2 在深度學(xué)習(xí)之前:機器學(xué)習(xí)簡史 
1.2.1 概率建?!?br />1.2.2 早期的神經(jīng)網(wǎng)絡(luò) 
1.2.3 核方法 
1.2.4 決策樹、隨機森林、梯度提升機 
1.2.5 回到神經(jīng)網(wǎng)絡(luò) 
1.2.6 是什么讓深度學(xué)習(xí)與眾不同 
1.2.7 現(xiàn)代機器學(xué)習(xí)發(fā)展 
1.3 為什么會有深度學(xué)習(xí)為什么是現(xiàn)在 
1.3.1 硬件 
1.3.2 數(shù)據(jù) 
1.3.3 算法 
1.3.4 新一輪投資潮 
1.3.5 深度學(xué)習(xí)走向大眾 
1.3.6 它會持續(xù)下去嗎 
第 2章 在我們開始前:構(gòu)建神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模塊 
2.1 有關(guān)神經(jīng)網(wǎng)絡(luò)的*印象 
2.2 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)表示 
2.2.1 標量(零維張量) 
2.2.2 向量(一維張量) 
2.2.3 矩陣(二維張量) 
2.2.4 三維張量和高維張量 
2.2.5 關(guān)鍵屬性 
2.2.6 在 R中使用張量 
2.2.7 數(shù)據(jù)批次的概念 
2.2.8 數(shù)據(jù)張量的真實示例 
2.2.9 向量數(shù)據(jù) 
2.2.10 時間序列數(shù)據(jù)或序列數(shù)據(jù) 
2.2.11 圖像數(shù)據(jù) 
2.2.12 視頻數(shù)據(jù) 
2.3 神經(jīng)網(wǎng)絡(luò)的齒輪:張量運算 
2.3.1 逐元素運算 
2.3.2 包含不同維度張量的運算 
2.3.3 張量點積 
2.3.4 張量重塑 
2.3.5 張量運算的幾何解釋 
2.3.6 深度學(xué)習(xí)的幾何解釋
2.4 神經(jīng)網(wǎng)絡(luò)的引擎:基于梯度的優(yōu)化 
2.4.1 什么是導(dǎo)數(shù) 
2.4.2 張量運算的導(dǎo)數(shù):梯度 
2.4.3 隨機梯度下降 
2.4.4 鏈式導(dǎo)數(shù):后向傳播算法 
2.5 回顧我們的*個例子 
2.6 本章小結(jié) 
第 3章 神經(jīng)網(wǎng)絡(luò)入門 
3.1 神經(jīng)網(wǎng)絡(luò)的剖析 
3.1.1 層:深度學(xué)習(xí)的基石 
3.1.2 模型:層網(wǎng)絡(luò) 
3.1.3 損失函數(shù)和優(yōu)化器:配置學(xué)習(xí)過程的關(guān)鍵 
3.2 Keras簡介 
3.2.1 Keras、TensorFlow、Theano和 CNTK 
3.2.2 安裝 Keras 46 3.2.3 使用 Keras進行開發(fā):快速概述 
3.3 建立深度學(xué)習(xí)工作站 
3.3.1 讓 Keras運行:兩個選項 
3.3.2 在云中運行深度學(xué)習(xí)任務(wù):優(yōu)點和缺點 
3.3.3 什么是深度學(xué)習(xí)的*GPU
3.4 電影評論分類:二元分類示例 
3.4.1 IMDB數(shù)據(jù)集 
3.4.2 準備數(shù)據(jù) 
3.4.3 構(gòu)建網(wǎng)絡(luò) 
3.4.4 方法驗證 
3.4.5 使用經(jīng)過訓(xùn)練的網(wǎng)絡(luò)生成對新數(shù)據(jù)的預(yù)測 
3.4.6 進一步的實驗 
3.4.7 小結(jié) 
3.5 新聞專線分類:多類分類示例 
3.5.1 Reuters數(shù)據(jù)集 
3.5.2 準備數(shù)據(jù) 
3.5.3 構(gòu)建網(wǎng)絡(luò) 
3.5.4 方法驗證 
3.5.5 生成對新數(shù)據(jù)的預(yù)測 
3.5.6 處理標簽和損失的不同方式 
3.5.7 具有足夠大的中間層的重要性 
3.5.8 進一步的實驗 
3.5.9 小結(jié) 
3.6 預(yù)測房價:一個回歸的例子 
3.6.1 波士頓住房價格數(shù)據(jù)集 
3.6.2 準備數(shù)據(jù) 
3.6.3 構(gòu)建網(wǎng)絡(luò) 
3.6.4 使用 K折驗證 
3.6.5 小結(jié)
3.7 本章小結(jié) 
第 4章 機器學(xué)習(xí)基礎(chǔ) 
4.1 機器學(xué)習(xí)的四個分支 
4.1.1 監(jiān)督學(xué)習(xí) 
4.1.2 無監(jiān)督學(xué)習(xí) 
4.1.3 自監(jiān)督學(xué)習(xí) 
4.1.4 強化學(xué)習(xí) 
4.2 評估機器學(xué)習(xí)模型 
4.2.1 訓(xùn)練、驗證和測試集 
4.2.2 要記住的事情 
4.3 數(shù)據(jù)預(yù)處理、特征工程和特征學(xué)習(xí) 
4.3.1 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理 
4.3.2 特征工程 
4.4 過擬合和欠擬合 
4.4.1 縮小網(wǎng)絡(luò)規(guī)?!?
4.4.2 添加權(quán)重正則化 
4.4.3 添加 dropout 
4.5 機器學(xué)習(xí)的通用工作流程 
4.5.1 定義問題并整合數(shù)據(jù)集 
4.5.2 選擇衡量成功的標準 
4.5.3 確定評估方案 
4.5.4 準備數(shù)據(jù) 
4.5.5 開發(fā)一個比基線更好的模型 
4.5.6 擴展:開發(fā)一個過擬合的模型 
4.5.7 正則化模型并調(diào)整超參數(shù) 
4.6 本章小結(jié) 
第二部分 深度學(xué)習(xí)實戰(zhàn)
第 5章 計算機視覺中的深度學(xué)習(xí) 
5.1 卷積網(wǎng)絡(luò)概述 
5.1.1 卷積操作 
5.1.2 *池化操作 
5.2 在小型數(shù)據(jù)集上從頭開始訓(xùn)練一個卷積網(wǎng)絡(luò) 
5.2.1 深度學(xué)習(xí)與小數(shù)據(jù)問題的相關(guān)性 
5.2.2 下載數(shù)據(jù) 
5.2.3 構(gòu)建網(wǎng)絡(luò) 
5.2.4 數(shù)據(jù)預(yù)處理 
5.2.5 使用數(shù)據(jù)擴充 
5.3 使用預(yù)訓(xùn)練的卷積網(wǎng)絡(luò) 
5.3.1 特征提取 
5.3.2 微調(diào) 
5.3.3 小結(jié) 
5.4 可視化卷積網(wǎng)絡(luò)學(xué)習(xí)過程 
5.4.1 可視化中間激活 
5.4.2 可視化卷積網(wǎng)絡(luò)過濾器
5.4.3 可視化類激活的熱圖
5.5 本章小結(jié) 
第 6章 用于文本和序列數(shù)據(jù)的深度學(xué)習(xí) 
6.1 使用文本數(shù)據(jù) 
6.1.1 詞和字符的獨熱編碼 
6.1.2 使用單詞嵌入 
6.1.3 將其全部放在一起:從原始文本到單詞嵌入 
6.1.4 小結(jié) 
6.2 了解循環(huán)神經(jīng)網(wǎng)絡(luò) 
6.2.1 Keras中的循環(huán)層 
6.2.2 理解 LSTM 和 GRU 層 
6.2.3 Keras中的一個具體的 LSTM例子 
6.2.4 小結(jié) 
6

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號