注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)網(wǎng)絡(luò)與數(shù)據(jù)通信網(wǎng)絡(luò)服務(wù)TensorFlow 2.0卷積神經(jīng)網(wǎng)絡(luò)實戰(zhàn)

TensorFlow 2.0卷積神經(jīng)網(wǎng)絡(luò)實戰(zhàn)

TensorFlow 2.0卷積神經(jīng)網(wǎng)絡(luò)實戰(zhàn)

定 價:¥69.00

作 者: 王曉華
出版社: 清華大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

ISBN: 9787302540656 出版時間: 2019-12-01 包裝:
開本: 頁數(shù): 字數(shù):  

內(nèi)容簡介

  卷積神經(jīng)網(wǎng)絡(luò)是現(xiàn)代神經(jīng)網(wǎng)絡(luò)的核心內(nèi)容,TensorFlow又是現(xiàn)在*為流行的深度學(xué)習(xí)框架。本書使用TensorFlow 2.0作為卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)的基本工具,引導(dǎo)深度學(xué)習(xí)初學(xué)者,從搭建環(huán)境開始,逐步深入到理論、代碼和應(yīng)用實踐中去。 本書分為8章,第1章從搭建環(huán)境開始,包含Anaconda、Python、PyCharm、TensorFlow CPU 版本和GPU版本的安裝;第2章是KerasTensorFlow 2.0的使用基礎(chǔ);第3章是TensorFlow 2.0語法;第4章是MNIST實戰(zhàn);第5章是Dataset API;第6章是ResNet理論和實踐;第7章是注意力模型;第8章是通過卷積實現(xiàn)的一個項目案例:識文斷字。 本書內(nèi)容詳盡、示例豐富,是機器學(xué)習(xí)和深度學(xué)習(xí)初學(xué)者的參考書,同時非常適合高等院校人工智能相關(guān)專業(yè)的師生閱讀,也可作為培訓(xùn)學(xué)校相關(guān)專業(yè)的教材使用。

作者簡介

  王曉華,計算機專業(yè)講師,長期講授面向?qū)ο蟪绦蛟O(shè)計、數(shù)據(jù)結(jié)構(gòu)、Hadoop程序設(shè)計等研究生和本科生相關(guān)課程;主要研究方向為云計算、數(shù)據(jù)挖掘。曾主持和參與多項國家和省級科研課題,獨立科研項目獲省級成果認定,發(fā)表過多篇論文,擁有一項專利。著有《Spark MLlib機器學(xué)習(xí)實踐》《TensorFlow深度學(xué)習(xí)應(yīng)用實踐》《OpenCV TensorFlow深度學(xué)習(xí)與計算機視覺實戰(zhàn)》等圖書。

圖書目錄

目  錄   第1章  Python和TensorFlow 2.0的安裝 1 1.1  Python基本安裝和用法 1 1.1.1  Anaconda的下載與安裝 2 1.1.2  Python編譯器PyCharm 的安裝 5 1.1.3  使用Python計算softmax函數(shù) 8 1.2  TensorFlow 2.0 GPU版本的安裝 9 1.2.1  檢測Anaconda中的TensorFlow版本 9 1.2.2  TensorFlow 2.0 GPU版本基礎(chǔ)顯卡推薦和前置軟件安裝 10 1.3  Hello TensorFlow 13 1.4  本章小結(jié) 14 第2章  簡化代碼的復(fù)雜性:TensorFlow 2.0基礎(chǔ)與進階 15 2.1  配角轉(zhuǎn)成主角——從TensorFlow Eager Execution轉(zhuǎn)正談起 16 2.1.1  Eager簡介與調(diào)用 16 2.1.2  讀取數(shù)據(jù) 18 2.1.3  使用TensorFlow 2.0模式進行線性回歸的一個簡單的例子 20 2.2  Hello TensorFlow & Keras 22 2.2.1  MODEL!MODEL!MODEL!還是MODEL 23 2.2.2  使用Keras API實現(xiàn)鳶尾花分類的例子(順序模式) 24 2.2.3  使用Keras 函數(shù)式編程實現(xiàn)鳶尾花分類的例子(重點) 27 2.2.4  使用保存的Keras模式對模型進行復(fù)用 30 2.2.5  使用TensorFlow 2.0標(biāo)準(zhǔn)化編譯對Iris模型進行擬合 31 2.2.6  多輸入單一輸出TensorFlow 2.0編譯方法(選學(xué)) 35 2.2.7  多輸入多輸出TensorFlow 2.0編譯方法(選學(xué)) 39 2.3  全連接層詳解 41 2.3.1  全連接層的定義與實現(xiàn) 41 2.3.2  使用TensorFlow 2.0自帶的API實現(xiàn)全連接層 43 2.3.3  打印顯示TensorFlow 2.0設(shè)計的Model結(jié)構(gòu)和參數(shù) 46 2.4  本章小結(jié) 48 第3章  TensorFlow 2.0語法基礎(chǔ) 49 3.1  BP神經(jīng)網(wǎng)絡(luò)簡介 49 3.2  BP神經(jīng)網(wǎng)絡(luò)兩個基礎(chǔ)算法詳解 53 3.2.1  小二乘法(LS算法)詳解 53 3.2.2  道士下山的故事——梯度下降算法 56 3.3  反饋神經(jīng)網(wǎng)絡(luò)反向傳播算法介紹 59 3.3.1  深度學(xué)習(xí)基礎(chǔ) 59 3.3.2  鏈?zhǔn)角髮?dǎo)法則 61 3.3.3  反饋神經(jīng)網(wǎng)絡(luò)原理與公式推導(dǎo) 62 3.3.4  反饋神經(jīng)網(wǎng)絡(luò)原理的激活函數(shù) 68 3.3.5  反饋神經(jīng)網(wǎng)絡(luò)原理的Python實現(xiàn) 70 3.4  本章小結(jié) 74 第4章  卷積層詳解與MNIST實戰(zhàn) 75 4.1  卷積運算基本概念 75 4.1.1  卷積運算 76 4.1.2  TensorFlow 2.0中卷積函數(shù)實現(xiàn)詳解 78 4.1.3  池化運算 80 4.1.4  softmax激活函數(shù) 81 4.1.5  卷積神經(jīng)網(wǎng)絡(luò)原理 83 4.2  TensorFlow 2.0編程實戰(zhàn)—MNIST手寫體識別 86 4.2.1  MNIST數(shù)據(jù)集 86 4.2.2  MNIST數(shù)據(jù)集特征和標(biāo)簽介紹 88 4.2.3  TensorFlow 2.0編程實戰(zhàn)MNIST數(shù)據(jù)集 90 4.2.4  使用自定義的卷積層實現(xiàn)MNIST識別 95 4.3  本章小結(jié) 98 第5章  TensorFlow 2.0 Dataset使用詳解 99 5.1  Dataset API基本結(jié)構(gòu)和內(nèi)容 99 5.1.1  Dataset API數(shù)據(jù)種類 100 5.1.2  Dataset API基礎(chǔ)使用 101 5.2  Dataset API高級用法 102 5.2.1  Dataset API數(shù)據(jù)轉(zhuǎn)換方法 104 5.2.2  一個讀取圖片數(shù)據(jù)集的例子 108 5.3  使用TFRecord API創(chuàng)建和使用數(shù)據(jù)集 108 5.3.1  TFRecord詳解 109 5.3.2  TFRecord的創(chuàng)建 111 5.3.3  TFRecord的讀取 115 5.4  TFRecord實戰(zhàn)——帶有處理模型的完整例子 121 5.4.1  創(chuàng)建數(shù)據(jù)集 121 5.4.2  創(chuàng)建解析函數(shù) 122 5.4.3  創(chuàng)建數(shù)據(jù)模型 123 5.4  本章小結(jié) 124 第6章  從冠軍開始:ResNet 125 6.1  ResNet基礎(chǔ)原理與程序設(shè)計基礎(chǔ) 125 6.1.1  ResNet誕生的背景 126 6.1.2  模塊工具的TensorFlow實現(xiàn)——不要重復(fù)造輪子 129 6.1.3  TensorFlow高級模塊layers用法簡介 129 6.2  ResNet實戰(zhàn)CIFAR-100數(shù)據(jù)集分類 137 6.2.1  CIFAR-100數(shù)據(jù)集簡介 137 6.2.2  ResNet殘差模塊的實現(xiàn) 140 6.2.3  ResNet網(wǎng)絡(luò)的實現(xiàn) 142 6.2.4  使用ResNet對CIFAR-100進行分類 145 6.3  ResNet的兄弟——ResNeXt 147 6.3.1  ResNeXt誕生的背景 147 6.3.2  ResNeXt殘差模塊的實現(xiàn) 149 6.3.3  ResNeXt網(wǎng)絡(luò)的實現(xiàn) 150 6.3.4  ResNeXt和ResNet的比較 151 6.4  其他的卷積神經(jīng)模型簡介 152 6.4.1  SqueezeNet模型簡介 153 6.4.2  Xception模型簡介 155 6.5  本章小結(jié) 156 第7章  Attention is all we need! 157 7.1  簡單的理解注意力機制 158 7.1.1  何為“注意力” 158 7.1.2  “hard or soft?”—注意力機制的兩種常見形式 159 7.1.3  “Spatial and Channel!”—注意力機制的兩種實現(xiàn)形式 160 7.2  SENet 和CBAM注意力機制的經(jīng)典模型 163 7.2.1  后的冠軍—SENet 163 7.2.2  結(jié)合了Spatial和Channel的CBAM模型 166 7.2.3  注意力的前沿研究—基于細粒度的圖像注意力機制 171 7.3  本章小結(jié) 173 第8章  卷積神經(jīng)網(wǎng)絡(luò)實戰(zhàn):識文斷字我也可以 174 8.1  文本數(shù)據(jù)處理 175 8.1.1  數(shù)據(jù)集介紹和數(shù)據(jù)清洗 175 8.1.2  停用詞的使用 177 8.1.3  詞向量訓(xùn)練模型word2vec使用介紹 180 8.1.4  文本主題的提取—基于TF-IDF(選學(xué)) 183 8.1.5  文本主題的提取—基于TextRank(選學(xué)) 187 8.2  針對文本的卷積神經(jīng)網(wǎng)絡(luò)模型簡介—字符卷積 190 8.2.1  字符(非單詞)文本的處理 191 8.2.2  卷積神經(jīng)網(wǎng)絡(luò)文本分類模型的實現(xiàn)—Conv1D(一維卷積) 199 8.3  針對文本的卷積神經(jīng)網(wǎng)絡(luò)模型簡介—詞卷積 201 8.3.1  單詞的文本處理 201 8.3.2  卷積神經(jīng)網(wǎng)絡(luò)文本分類模型的實現(xiàn)—Conv2D(二維卷積) 203 8.4  使用卷積對文本分類的補充內(nèi)容 207 8.4.1  漢字的文本處理 207 8.4.2  其他的一些細節(jié) 210 8.5  本章小結(jié) 211  

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號