注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能Tensorflow 2.0神經(jīng)網(wǎng)絡(luò)實(shí)踐

Tensorflow 2.0神經(jīng)網(wǎng)絡(luò)實(shí)踐

Tensorflow 2.0神經(jīng)網(wǎng)絡(luò)實(shí)踐

定 價(jià):¥89.00

作 者: [美] 保羅·加萊奧內(nèi)(Paolo Galeone) 著,閆龍川 白東霞 郭永和 李妍譯 譯
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng): 智能系統(tǒng)與技術(shù)叢書(shū)
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111659273 出版時(shí)間: 2020-07-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 264 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)通過(guò)聚焦于開(kāi)發(fā)基于神經(jīng)網(wǎng)絡(luò)的解決方案來(lái)介紹機(jī)器學(xué)習(xí),首先將從熟悉構(gòu)建深度學(xué)習(xí)解決方案所需的概念和技術(shù)開(kāi)始,然后介紹如何創(chuàng)建分類(lèi)器、構(gòu)建目標(biāo)檢測(cè)和語(yǔ)義分割神經(jīng)網(wǎng)絡(luò)、訓(xùn)練生成式模型,以及使用TF 2.0的工具,如TensorFlow Datasets和TensorFlow Hub,加速開(kāi)發(fā)過(guò)程。學(xué)完本書(shū)之后,讀者將能夠使用TF 2.0開(kāi)發(fā)任何機(jī)器學(xué)習(xí)問(wèn)題的解決方案,并能將它們部署到生產(chǎn)環(huán)境之中。

作者簡(jiǎn)介

  保羅·加萊奧內(nèi)(Paolo Galeone)是一位具有豐富實(shí)踐經(jīng)驗(yàn)的計(jì)算機(jī)工程師。獲得碩士學(xué)位后,他加入了意大利博洛尼亞大學(xué)的計(jì)算機(jī)視覺(jué)實(shí)驗(yàn)室并擔(dān)任研究員,在那里他豐富了自己在計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)領(lǐng)域的知識(shí)。目前,他領(lǐng)導(dǎo)著意大利ZURU科技公司的計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)實(shí)驗(yàn)室。 2019年,谷歌授予他機(jī)器學(xué)習(xí)領(lǐng)域的谷歌開(kāi)發(fā)技術(shù)專(zhuān)家(Google Developer Expert,GDE)稱(chēng)號(hào),以此認(rèn)可他的專(zhuān)業(yè)技能。作為一名GDE,他通過(guò)寫(xiě)博客、在會(huì)議上演講、參與開(kāi)源項(xiàng)目以及回答Stack Overflow上面的問(wèn)題,分享了他對(duì)機(jī)器學(xué)習(xí)和TensorFlow框架的熱愛(ài)。譯者簡(jiǎn)介:閆龍川 碩士,國(guó)家電網(wǎng)有限公司信息通信分公司高級(jí)工程師,信息通信技術(shù)專(zhuān)家,主要從事電力信息通信系統(tǒng)運(yùn)行技術(shù)研究工作,研究興趣包括深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、自然語(yǔ)言處理、云計(jì)算及數(shù)據(jù)中心管理等。白東霞 博士,國(guó)家電網(wǎng)有限公司信息通信分公司高級(jí)工程師,主要從事電力信息系統(tǒng)運(yùn)行測(cè)試技術(shù)研究工作,研究興趣包括人工智能、密碼理論等。郭永和 博士,國(guó)家電網(wǎng)有限公司信息通信分公司高級(jí)工程師,主要從事電力信息系統(tǒng)網(wǎng)絡(luò)安全技術(shù)研究工作,研究興趣包括機(jī)器學(xué)習(xí)、大數(shù)據(jù)分析、計(jì)算機(jī)體系結(jié)構(gòu)、密碼技術(shù)等。李 妍 博士,國(guó)家電網(wǎng)有限公司信息通信分公司工程師,主要從事電力信息通信系統(tǒng)故障診斷技術(shù)研究工作,研究興趣包括機(jī)器學(xué)習(xí)、人工智能等。

圖書(shū)目錄

譯者序
前言
作者簡(jiǎn)介
審校者簡(jiǎn)介
第一部分 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
第1章 什么是機(jī)器學(xué)習(xí)2
1.1 數(shù)據(jù)集的重要性3
1.1.1 n維空間5
1.1.2 維度詛咒8
1.2 有監(jiān)督學(xué)習(xí)9
1.2.1 距離和相似性—k-NN算法10
1.2.2 參數(shù)模型11
1.2.3 評(píng)估模型性能—度量指標(biāo)13
1.3 無(wú)監(jiān)督學(xué)習(xí)18
1.4 半監(jiān)督學(xué)習(xí)19
1.5 總結(jié)20
1.6 練習(xí)題20
第2章 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)22
2.1 神經(jīng)網(wǎng)絡(luò)23
2.1.1 生物神經(jīng)元23
2.1.2 人工神經(jīng)元24
2.1.3 全連接層25
2.1.4 激活函數(shù)27
2.1.5 損失函數(shù)29
2.1.6 參數(shù)初始化30
2.2 優(yōu)化31
2.2.1 梯度下降法32
2.2.2 梯度下降優(yōu)化算法34
2.2.3 反向傳播和自動(dòng)微分37
2.3 卷積神經(jīng)網(wǎng)絡(luò)39
2.3.1 卷積運(yùn)算符39
2.3.2 二維卷積40
2.3.3 卷間的二維卷積41
2.3.4 1×1×D卷積44
2.4 正則化45
2.4.1 dropout45
2.4.2 數(shù)據(jù)擴(kuò)充48
2.4.3 早期停止48
2.4.4 批量歸一化49
2.5 總結(jié)50
2.6 練習(xí)題51
第二部分 TensorFlow基礎(chǔ)
第3章 TensorFlow圖架構(gòu)54
3.1 環(huán)境設(shè)置55
3.1.1 TensorFlow 1.x的環(huán)境設(shè)置56
3.1.2 TensorFlow 2.0的環(huán)境設(shè)置57
3.2 數(shù)據(jù)流圖58
3.2.1 主要結(jié)構(gòu)—tf.Graph60
3.2.2 圖定義—從tf.Operation到tf.Tensor60
3.2.3 圖放置—tf.device64
3.2.4 圖執(zhí)行—tf.Session66
3.2.5 靜態(tài)圖中的變量69
3.3 模型定義和訓(xùn)練72
3.3.1 用tf.layers定義模型72
3.3.2 自動(dòng)微分—損失函數(shù)和優(yōu)化器75
3.4 用Python操作圖78
3.4.1 給占位符賦值79
3.4.2 總結(jié)記錄80
3.4.3 保存模型參數(shù)和模型選擇81
3.5 總結(jié)83
3.6 練習(xí)題85
第4章 TensorFlow 2.0架構(gòu)86
4.1 重新學(xué)習(xí)這個(gè)框架87
4.2 Keras框架及其模型88
4.2.1 順序API90
4.2.2 函數(shù)式API92
4.2.3 子類(lèi)方法93
4.3 eager執(zhí)行模式和新的特征94
4.3.1 基本示例94
4.3.2 函數(shù),而不是會(huì)話(huà)96
4.3.3 不再有全局的東西97
4.3.4 控制流99
4.3.5 GradientTape 101
4.3.6 定制訓(xùn)練循環(huán)102
4.3.7 保存和恢復(fù)模型狀態(tài)105
4.3.8 總結(jié)記錄和指標(biāo)度量107
4.3.9 AutoGraph111
4.4 代碼庫(kù)遷移115
4.5 總結(jié)117
4.6 練習(xí)題117
第5章 高效的數(shù)據(jù)輸入流水線和估計(jì)器API120
5.1 高效的數(shù)據(jù)輸入流水線121
5.1.1 輸入流水線的結(jié)構(gòu)121
5.1.2 tf.data.Dataset對(duì)象122
5.1.3 性能優(yōu)化125
5.1.4 構(gòu)建自己的數(shù)據(jù)集126
5.1.5 數(shù)據(jù)擴(kuò)充127
5.1.6 TensroFlow 數(shù)據(jù)集—tdfs128
5.1.7 Keras整合130
5.1.8 eager整合131
5.2 估計(jì)器API132
5.2.1 數(shù)據(jù)輸入流水線134
5.2.2 定制估計(jì)器136
5.2.3 預(yù)制估計(jì)器139
5.3 總結(jié)140
5.4 練習(xí)題141
第三部分 神經(jīng)網(wǎng)絡(luò)應(yīng)用
第6章 使用TensorFlow Hub進(jìn)行圖像分類(lèi)144
6.1 獲取數(shù)據(jù)145
6.2 遷移學(xué)習(xí)147
6.2.1 TensorFlow Hub149
6.2.2 使用Inception v3作為特征提取器150
6.2.3 使數(shù)據(jù)適應(yīng)模型152
6.2.4 建立模型—hub.KerasLayer152
6.2.5 訓(xùn)練與評(píng)估154
6.2.6 訓(xùn)練速度155
6.3 微調(diào)156
6.3.1 何時(shí)微調(diào)157
6.3.2 TensorFlow Hub集成157
6.3.3 訓(xùn)練和評(píng)估158
6.3.4 訓(xùn)練速度159
6.4 總結(jié)159
6.5 練習(xí)題160
第7章 目標(biāo)檢測(cè)162
7.1 獲取數(shù)據(jù)163
7.2 目標(biāo)定位167
7.2.1 定位是一個(gè)回歸問(wèn)題168
7.2.2 IoU173
7.2.3 平均精度175
7.2.4 平均精度均值175
7.2.5 改進(jìn)訓(xùn)練腳本176
7.3 分類(lèi)和定位177
7.3.1 多任務(wù)學(xué)習(xí)177
7.3.2 雙頭網(wǎng)絡(luò)178
7.3.3 基于錨的檢測(cè)器180
7.3.4 錨框180
7.4 總結(jié)182
7.5 練習(xí)題182
第8章 語(yǔ)義分割和自定義數(shù)據(jù)集生成器184
8.1 語(yǔ)義分割184
8.1.1 挑戰(zhàn)185
8.1.2 反卷積—轉(zhuǎn)置卷積186
8.1.3 U-Net架構(gòu)187
8.2 創(chuàng)建一個(gè)TensorFlow數(shù)據(jù)集生成器191
8.2.1 層次化結(jié)構(gòu)192
8.2.2 數(shù)據(jù)集類(lèi)和DatasetInfo193
8.2.3 創(chuàng)建數(shù)據(jù)集分割194
8.2.4 生成示例195
8.2.5 使用生成器198
8.3 模型訓(xùn)練與評(píng)估198
8.3.1 數(shù)據(jù)準(zhǔn)備199
8.3.2 訓(xùn)練循環(huán)和Keras回調(diào)函數(shù)199
8.3.3 評(píng)估與推論201
8.4 總結(jié)203
8.5 練習(xí)題204
第9章 生成式對(duì)抗網(wǎng)絡(luò)206
9.1 了解GAN及其應(yīng)用206
9.1.1 價(jià)值函數(shù)207
9.1.2 非飽和價(jià)值函數(shù)208
9.1.3 模型定義和訓(xùn)練階段208
9.1.4 GAN的應(yīng)用209
9.2 無(wú)條件的GAN211
9.2.1 準(zhǔn)備數(shù)據(jù)211
9.2.2 定義生成器212
9.2.3 定義鑒別器213
9.2.4 定義損失函數(shù)214
9.2.5 無(wú)條件的GAN中的對(duì)抗訓(xùn)練過(guò)程215
9.3 有條件的GAN219
9.3.1 為有條件的GAN獲取數(shù)據(jù)220
9.3.2 在有條件的GAN中定義生成器220
9.3.3 在有條件的GAN中定義鑒別器221
9.3.4 對(duì)抗訓(xùn)練過(guò)程222
9.4 總結(jié)223
9.5 練習(xí)題224
第10章 在生產(chǎn)環(huán)境中部署模型226
10.1 SavedModel序列化格式226
10.1.1 特征227
10.1.2 通過(guò)Keras模型創(chuàng)建SavedModel 228
10.1.3 使用通用函數(shù)進(jìn)行SavedModel轉(zhuǎn)換229
10.2 Python部署231
10.2.1 通用計(jì)算圖 231
10.2.2 Keras模型 233
10.2.3 平面圖234
10.3 支持部署的平臺(tái)235
10.3.1 TensorFlow.js236
10.3.2 Go綁定和tfgo240
10

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)