注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡(luò)人工智能深度學習:基于PyTorch的實現(xiàn)

深度學習:基于PyTorch的實現(xiàn)

深度學習:基于PyTorch的實現(xiàn)

定 價:¥56.00

作 者: 周靜,魯偉
出版社: 中國人民大學出版社
叢編項: 數(shù)據(jù)科學與大數(shù)據(jù)技術(shù)叢書
標 簽: 暫缺

購買這本書可以去


ISBN: 9787300312378 出版時間: 2023-05-01 包裝: 平裝-膠訂
開本: 128開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  本書是一本由淺入深地介紹深度學習的理論原理及PyTorch深度學習框架的入門書籍,全書通過圖文并茂的方式對重點知識進行講解,注重實踐,詳細地介紹了PyTorch的基本使用、神經(jīng)網(wǎng)絡(luò)的構(gòu)建和訓練技巧、卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的實現(xiàn),以及前沿的深度生成模型的應(yīng)用。通過學習本書,讀者不僅可以了解深度學習,而且可以輕松實現(xiàn)機器作詩、自動樂曲生成、機器翻譯、圖像去噪等有趣的應(yīng)用。全書配有注釋詳細的代碼,方便讀者學習與實踐。本書適用于對人工智能感興趣的讀者,也適合作為深度學習領(lǐng)域的入門教材。

作者簡介

  周 靜,北京大學光華管理學院博士,中國人民大學統(tǒng)計學院副教授、博士生導(dǎo)師,中國人民大學應(yīng)用統(tǒng)計科學研究中心研究員,研究方向為社交網(wǎng)絡(luò)數(shù)據(jù)建模、人工智能在肺癌診療中的應(yīng)用等。在Journal of Business & Economic Statistics,Statistic Sinica,Computational Statistics & Data Analysis,Neurocomputing,《管理科學》及《營銷科學學報》等國內(nèi)外權(quán)威期刊發(fā)表論文20余篇,著有《社交網(wǎng)絡(luò)數(shù)據(jù):理論與實踐》和《深度學習:從入門到精通》,參與編寫《數(shù)據(jù)思維:從數(shù)據(jù)分析到商業(yè)價值》《數(shù)據(jù)思維實踐:從零經(jīng)驗到數(shù)據(jù)英才》等。主持完成多項國家自然科學基金項目、北京市社會科學基金項目、國家統(tǒng)計局重點項目。魯 偉,深度學習算法工程師,著有《深度學習筆記》和《機器學習:公式推導(dǎo)與代碼實現(xiàn)》,有多個醫(yī)學影像深度學習項目的管理、研發(fā)和落地經(jīng)驗。

圖書目錄

第1章 導(dǎo) 論
1.1 人工智能
1.1.1 人工智能的發(fā)展歷史
1.1.2 人工智能的流派
1.2 機器學習
1.3 深度學習
1.3.1 深度學習的概念
1.3.2 深度學習與機器學習、人工智能的關(guān)系
1.3.3 深度學習的歷史溯源
1.3.4 深度學習與回歸分析
1.4 深度學習適用的領(lǐng)域
1.4.1 圖像識別
1.4.2 語音識別
1.4.3 自然語言處理
1.4.4 棋牌競技
1.5 常用的深度學習框架
1.5.1 Caffe
1.5.2 TensorFlow
1.5.3 PyTorch
1.5.4 MXNet
1.5.5 Keras
1.6 本書使用的數(shù)據(jù)和代碼說明
第2章 神經(jīng)網(wǎng)絡(luò)的張量與數(shù)學基礎(chǔ)
2.1 張 量
2.1.1 張量的定義
2.1.2 張量的數(shù)據(jù)類型
2.1.3 張量的創(chuàng)建方式
2.1.4 應(yīng)用:圖像數(shù)據(jù)轉(zhuǎn)張量
2.2 張量的操作
2.2.1 獲取和改變張量形狀
2.2.2 提取張量中的元素
2.2.3 張量的拼接與拆分
2.3 張量的運算
2.3.1 基本運算
2.3.2 統(tǒng)計相關(guān)運算
2.3.3 矩陣運算
2.4 深度學習的導(dǎo)數(shù)基礎(chǔ)
2.4.1 單變量函數(shù)和導(dǎo)數(shù)
2.4.2 多變量函數(shù)和偏導(dǎo)數(shù)
2.4.3 復(fù)合函數(shù)和鏈式求導(dǎo)法則
2.5 梯度下降算法的含義與公式
2.6 本章小結(jié)
第3章 前饋神經(jīng)網(wǎng)絡(luò)
3.1 前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)
3.1.1 神經(jīng)元
3.1.2 Sigmoid函數(shù)
3.1.3 Tanh函數(shù)
3.1.4 ReLU函數(shù)
3.1.5 前饋神經(jīng)網(wǎng)絡(luò)的構(gòu)成
3.2 損失函數(shù)的設(shè)置
3.3 梯度下降算法
3.3.1 梯度下降算法的直觀理解與定義
3.3.2 小批量梯度下降算法
3.3.3 動量梯度下降算法
3.3.4 Nesterov梯度加速算法
3.3.5 自適應(yīng)梯度算法
3.3.6 AdaDelta算法
3.3.7 均方根加速算法
3.3.8 自適應(yīng)矩估計算法
3.4 反向傳播算法
3.4.1 單個神經(jīng)元的反向傳播算法示例
3.4.2 兩層神經(jīng)網(wǎng)絡(luò)的反向傳播算法示例
3.5 過擬合
3.5.1 偏差-方差分解
3.5.2 正則化
3.5.3 權(quán)重衰減
3.5.4 丟棄法
3.6 本章小結(jié)
第4章 神經(jīng)網(wǎng)絡(luò)的PyTorch實現(xiàn)
4.1 線性回歸案例:顏值打分
4.1.1 線性回歸基礎(chǔ)
4.1.2 案例:顏值打分
4.2 邏輯回歸案例:性別識別
4.2.1 邏輯回歸基礎(chǔ)
4.2.2 案例:性別識別
4.3 softmax回歸案例:Fashion-MNIST數(shù)據(jù)集分類
4.3.1 softmax回歸基礎(chǔ)
4.3.2 案例:Fashion-MNIST數(shù)據(jù)集分類
4.4 本章小結(jié)
第5章 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
5.1 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
5.2 卷積與池化的通俗理解
5.2.1 卷積的通俗理解
5.2.2 池化的通俗理解
5.3 卷積操作
5.3.1 卷積的定義
5.3.2 填充與步長
5.3.3 多通道卷積
5.4 池化操作
5.4.1 單通道池化
5.4.2 多通道池化
5.5 CNN模型實戰(zhàn):手寫數(shù)字識別
5.5.1 數(shù)據(jù)準備
5.5.2 構(gòu)建數(shù)據(jù)讀取器
5.5.3 LeNet-5網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
5.5.4 模型訓練
5.5.5 層卷積核與特征圖的可視化
5.5.6 第二層卷積核與特征圖的可視化
5.6 本章小結(jié)
第6章 經(jīng)典CNN模型介紹
6.1 AlexNet模型原理與實現(xiàn)
6.1.1 AlexNet網(wǎng)絡(luò)結(jié)構(gòu)
6.1.2 AlexNet創(chuàng)新點
6.1.3 案例:AlexNet用于CIFAR10數(shù)據(jù)集的圖片分類
6.1.4 AlexNet網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
6.1.5 模型訓練
6.2 VGG模型原理與實現(xiàn)
6.2.1

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號