注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)網(wǎng)絡(luò)與數(shù)據(jù)通信網(wǎng)絡(luò)服務(wù)TensorFlow 2.0卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

TensorFlow 2.0卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

TensorFlow 2.0卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

定 價(jià):¥69.00

作 者: 王曉華
出版社: 清華大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書(shū)可以去


ISBN: 9787302540656 出版時(shí)間: 2019-12-01 包裝:
開(kāi)本: 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  卷積神經(jīng)網(wǎng)絡(luò)是現(xiàn)代神經(jīng)網(wǎng)絡(luò)的核心內(nèi)容,TensorFlow又是現(xiàn)在*為流行的深度學(xué)習(xí)框架。本書(shū)使用TensorFlow 2.0作為卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的基本工具,引導(dǎo)深度學(xué)習(xí)初學(xué)者,從搭建環(huán)境開(kāi)始,逐步深入到理論、代碼和應(yīng)用實(shí)踐中去。 本書(shū)分為8章,第1章從搭建環(huán)境開(kāi)始,包含Anaconda、Python、PyCharm、TensorFlow CPU 版本和GPU版本的安裝;第2章是KerasTensorFlow 2.0的使用基礎(chǔ);第3章是TensorFlow 2.0語(yǔ)法;第4章是MNIST實(shí)戰(zhàn);第5章是Dataset API;第6章是ResNet理論和實(shí)踐;第7章是注意力模型;第8章是通過(guò)卷積實(shí)現(xiàn)的一個(gè)項(xiàng)目案例:識(shí)文斷字。 本書(shū)內(nèi)容詳盡、示例豐富,是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)初學(xué)者的參考書(shū),同時(shí)非常適合高等院校人工智能相關(guān)專業(yè)的師生閱讀,也可作為培訓(xùn)學(xué)校相關(guān)專業(yè)的教材使用。

作者簡(jiǎn)介

  王曉華,計(jì)算機(jī)專業(yè)講師,長(zhǎng)期講授面向?qū)ο蟪绦蛟O(shè)計(jì)、數(shù)據(jù)結(jié)構(gòu)、Hadoop程序設(shè)計(jì)等研究生和本科生相關(guān)課程;主要研究方向?yàn)樵朴?jì)算、數(shù)據(jù)挖掘。曾主持和參與多項(xiàng)國(guó)家和省級(jí)科研課題,獨(dú)立科研項(xiàng)目獲省級(jí)成果認(rèn)定,發(fā)表過(guò)多篇論文,擁有一項(xiàng)專利。著有《Spark MLlib機(jī)器學(xué)習(xí)實(shí)踐》《TensorFlow深度學(xué)習(xí)應(yīng)用實(shí)踐》《OpenCV TensorFlow深度學(xué)習(xí)與計(jì)算機(jī)視覺(jué)實(shí)戰(zhàn)》等圖書(shū)。

圖書(shū)目錄

目  錄   第1章  Python和TensorFlow 2.0的安裝 1 1.1  Python基本安裝和用法 1 1.1.1  Anaconda的下載與安裝 2 1.1.2  Python編譯器PyCharm 的安裝 5 1.1.3  使用Python計(jì)算softmax函數(shù) 8 1.2  TensorFlow 2.0 GPU版本的安裝 9 1.2.1  檢測(cè)Anaconda中的TensorFlow版本 9 1.2.2  TensorFlow 2.0 GPU版本基礎(chǔ)顯卡推薦和前置軟件安裝 10 1.3  Hello TensorFlow 13 1.4  本章小結(jié) 14 第2章  簡(jiǎn)化代碼的復(fù)雜性:TensorFlow 2.0基礎(chǔ)與進(jìn)階 15 2.1  配角轉(zhuǎn)成主角——從TensorFlow Eager Execution轉(zhuǎn)正談起 16 2.1.1  Eager簡(jiǎn)介與調(diào)用 16 2.1.2  讀取數(shù)據(jù) 18 2.1.3  使用TensorFlow 2.0模式進(jìn)行線性回歸的一個(gè)簡(jiǎn)單的例子 20 2.2  Hello TensorFlow & Keras 22 2.2.1  MODEL!MODEL!MODEL!還是MODEL 23 2.2.2  使用Keras API實(shí)現(xiàn)鳶尾花分類的例子(順序模式) 24 2.2.3  使用Keras 函數(shù)式編程實(shí)現(xiàn)鳶尾花分類的例子(重點(diǎn)) 27 2.2.4  使用保存的Keras模式對(duì)模型進(jìn)行復(fù)用 30 2.2.5  使用TensorFlow 2.0標(biāo)準(zhǔn)化編譯對(duì)Iris模型進(jìn)行擬合 31 2.2.6  多輸入單一輸出TensorFlow 2.0編譯方法(選學(xué)) 35 2.2.7  多輸入多輸出TensorFlow 2.0編譯方法(選學(xué)) 39 2.3  全連接層詳解 41 2.3.1  全連接層的定義與實(shí)現(xiàn) 41 2.3.2  使用TensorFlow 2.0自帶的API實(shí)現(xiàn)全連接層 43 2.3.3  打印顯示TensorFlow 2.0設(shè)計(jì)的Model結(jié)構(gòu)和參數(shù) 46 2.4  本章小結(jié) 48 第3章  TensorFlow 2.0語(yǔ)法基礎(chǔ) 49 3.1  BP神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 49 3.2  BP神經(jīng)網(wǎng)絡(luò)兩個(gè)基礎(chǔ)算法詳解 53 3.2.1  小二乘法(LS算法)詳解 53 3.2.2  道士下山的故事——梯度下降算法 56 3.3  反饋神經(jīng)網(wǎng)絡(luò)反向傳播算法介紹 59 3.3.1  深度學(xué)習(xí)基礎(chǔ) 59 3.3.2  鏈?zhǔn)角髮?dǎo)法則 61 3.3.3  反饋神經(jīng)網(wǎng)絡(luò)原理與公式推導(dǎo) 62 3.3.4  反饋神經(jīng)網(wǎng)絡(luò)原理的激活函數(shù) 68 3.3.5  反饋神經(jīng)網(wǎng)絡(luò)原理的Python實(shí)現(xiàn) 70 3.4  本章小結(jié) 74 第4章  卷積層詳解與MNIST實(shí)戰(zhàn) 75 4.1  卷積運(yùn)算基本概念 75 4.1.1  卷積運(yùn)算 76 4.1.2  TensorFlow 2.0中卷積函數(shù)實(shí)現(xiàn)詳解 78 4.1.3  池化運(yùn)算 80 4.1.4  softmax激活函數(shù) 81 4.1.5  卷積神經(jīng)網(wǎng)絡(luò)原理 83 4.2  TensorFlow 2.0編程實(shí)戰(zhàn)—MNIST手寫(xiě)體識(shí)別 86 4.2.1  MNIST數(shù)據(jù)集 86 4.2.2  MNIST數(shù)據(jù)集特征和標(biāo)簽介紹 88 4.2.3  TensorFlow 2.0編程實(shí)戰(zhàn)MNIST數(shù)據(jù)集 90 4.2.4  使用自定義的卷積層實(shí)現(xiàn)MNIST識(shí)別 95 4.3  本章小結(jié) 98 第5章  TensorFlow 2.0 Dataset使用詳解 99 5.1  Dataset API基本結(jié)構(gòu)和內(nèi)容 99 5.1.1  Dataset API數(shù)據(jù)種類 100 5.1.2  Dataset API基礎(chǔ)使用 101 5.2  Dataset API高級(jí)用法 102 5.2.1  Dataset API數(shù)據(jù)轉(zhuǎn)換方法 104 5.2.2  一個(gè)讀取圖片數(shù)據(jù)集的例子 108 5.3  使用TFRecord API創(chuàng)建和使用數(shù)據(jù)集 108 5.3.1  TFRecord詳解 109 5.3.2  TFRecord的創(chuàng)建 111 5.3.3  TFRecord的讀取 115 5.4  TFRecord實(shí)戰(zhàn)——帶有處理模型的完整例子 121 5.4.1  創(chuàng)建數(shù)據(jù)集 121 5.4.2  創(chuàng)建解析函數(shù) 122 5.4.3  創(chuàng)建數(shù)據(jù)模型 123 5.4  本章小結(jié) 124 第6章  從冠軍開(kāi)始:ResNet 125 6.1  ResNet基礎(chǔ)原理與程序設(shè)計(jì)基礎(chǔ) 125 6.1.1  ResNet誕生的背景 126 6.1.2  模塊工具的TensorFlow實(shí)現(xiàn)——不要重復(fù)造輪子 129 6.1.3  TensorFlow高級(jí)模塊layers用法簡(jiǎn)介 129 6.2  ResNet實(shí)戰(zhàn)CIFAR-100數(shù)據(jù)集分類 137 6.2.1  CIFAR-100數(shù)據(jù)集簡(jiǎn)介 137 6.2.2  ResNet殘差模塊的實(shí)現(xiàn) 140 6.2.3  ResNet網(wǎng)絡(luò)的實(shí)現(xiàn) 142 6.2.4  使用ResNet對(duì)CIFAR-100進(jìn)行分類 145 6.3  ResNet的兄弟——ResNeXt 147 6.3.1  ResNeXt誕生的背景 147 6.3.2  ResNeXt殘差模塊的實(shí)現(xiàn) 149 6.3.3  ResNeXt網(wǎng)絡(luò)的實(shí)現(xiàn) 150 6.3.4  ResNeXt和ResNet的比較 151 6.4  其他的卷積神經(jīng)模型簡(jiǎn)介 152 6.4.1  SqueezeNet模型簡(jiǎn)介 153 6.4.2  Xception模型簡(jiǎn)介 155 6.5  本章小結(jié) 156 第7章  Attention is all we need! 157 7.1  簡(jiǎn)單的理解注意力機(jī)制 158 7.1.1  何為“注意力” 158 7.1.2  “hard or soft?”—注意力機(jī)制的兩種常見(jiàn)形式 159 7.1.3  “Spatial and Channel!”—注意力機(jī)制的兩種實(shí)現(xiàn)形式 160 7.2  SENet 和CBAM注意力機(jī)制的經(jīng)典模型 163 7.2.1  后的冠軍—SENet 163 7.2.2  結(jié)合了Spatial和Channel的CBAM模型 166 7.2.3  注意力的前沿研究—基于細(xì)粒度的圖像注意力機(jī)制 171 7.3  本章小結(jié) 173 第8章  卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn):識(shí)文斷字我也可以 174 8.1  文本數(shù)據(jù)處理 175 8.1.1  數(shù)據(jù)集介紹和數(shù)據(jù)清洗 175 8.1.2  停用詞的使用 177 8.1.3  詞向量訓(xùn)練模型word2vec使用介紹 180 8.1.4  文本主題的提取—基于TF-IDF(選學(xué)) 183 8.1.5  文本主題的提取—基于TextRank(選學(xué)) 187 8.2  針對(duì)文本的卷積神經(jīng)網(wǎng)絡(luò)模型簡(jiǎn)介—字符卷積 190 8.2.1  字符(非單詞)文本的處理 191 8.2.2  卷積神經(jīng)網(wǎng)絡(luò)文本分類模型的實(shí)現(xiàn)—Conv1D(一維卷積) 199 8.3  針對(duì)文本的卷積神經(jīng)網(wǎng)絡(luò)模型簡(jiǎn)介—詞卷積 201 8.3.1  單詞的文本處理 201 8.3.2  卷積神經(jīng)網(wǎng)絡(luò)文本分類模型的實(shí)現(xiàn)—Conv2D(二維卷積) 203 8.4  使用卷積對(duì)文本分類的補(bǔ)充內(nèi)容 207 8.4.1  漢字的文本處理 207 8.4.2  其他的一些細(xì)節(jié) 210 8.5  本章小結(jié) 211  

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)