注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)人工智能計算機視覺之深度學(xué)習(xí):使用TensorFlow和Keras訓(xùn)練高級神經(jīng)網(wǎng)絡(luò)

計算機視覺之深度學(xué)習(xí):使用TensorFlow和Keras訓(xùn)練高級神經(jīng)網(wǎng)絡(luò)

計算機視覺之深度學(xué)習(xí):使用TensorFlow和Keras訓(xùn)練高級神經(jīng)網(wǎng)絡(luò)

定 價:¥59.00

作 者: [英] 拉賈林加帕·尚穆加馬尼 著,白勇 譯
出版社: 人民郵電出版社
叢編項:
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787115531582 出版時間: 2020-01-01 包裝: 平裝
開本: 16開 頁數(shù): 201 字?jǐn)?shù):  

內(nèi)容簡介

  本書開門見山,直接幫助你準(zhǔn)備好訓(xùn)練高效深度學(xué)習(xí)模型的環(huán)境,以完成各種計算機視覺任務(wù)。書中介紹了常見的深度學(xué)習(xí)架構(gòu),如卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò);講述了如何利用深度學(xué)習(xí)進行圖像分類、圖像檢索、目標(biāo)檢測、語義分割等內(nèi)容。讀完本書,你將能夠開發(fā)和訓(xùn)練自己的深度學(xué)習(xí)模型,并用它們解決計算機視覺難題。

作者簡介

  拉賈林加帕·尚穆加馬尼(Rajalingappaa Shanmugamani),目前在Kairos擔(dān)任技術(shù)經(jīng)理。在此之前,曾在新加坡SAP公司擔(dān)任深度學(xué)習(xí)主管,也在創(chuàng)業(yè)公司從事過計算機視覺產(chǎn)品的開發(fā)和咨詢工作。在同行評審的期刊和會議上多次發(fā)表文章,并在機器學(xué)習(xí)領(lǐng)域申請了專利。與他人合著出版了Hands-On Natural Language Processing with Python、Python Reinforcement Learning、Python: Advanced Guide to Artificial Intelligence、TensorFlow Deep Learning Projects等書。【譯者介紹】白勇,海南大學(xué)信息科學(xué)技術(shù)學(xué)院教授、博士生導(dǎo)師、美國歸國博士。長期從事物聯(lián)網(wǎng)、人工智能方面的研究。已承擔(dān)***和省部級項目10多項,發(fā)表學(xué)術(shù)論文100多篇,授權(quán)中國和美國發(fā)明專利10多項。

圖書目錄

第 1 章 入門 1
1.1 理解深度學(xué)習(xí) 1
1.1.1 感知機 1
1.1.2 激活函數(shù) 2
1.1.3 人工神經(jīng)網(wǎng)絡(luò) 4
1.1.4 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 7
1.1.5 嘗試TensorFlow游樂場 8
1.1.6 卷積神經(jīng)網(wǎng)絡(luò) 8
1.1.7 循環(huán)神經(jīng)網(wǎng)絡(luò) 10
1.1.8 長短期記憶網(wǎng)絡(luò) 11
1.2 計算機視覺深度學(xué)習(xí) 12
1.2.1 分類 12
1.2.2 檢測或定位與分割 12
1.2.3 相似性學(xué)習(xí) 13
1.2.4 圖像題注 13
1.2.5 生成模型 14
1.2.6 視頻分析 15
1.3 建立開發(fā)環(huán)境 15
1.3.1 硬件和操作系統(tǒng) 15
1.3.2 安裝軟件包 17
1.4 小結(jié) 23
第 2 章 圖像分類 24
2.1 在TensorFlow中訓(xùn)練MNIST模型 24
2.1.1 MNIST數(shù)據(jù)集 24
2.1.2 加載MNIST數(shù)據(jù) 25
2.1.3 建立一個感知機 25
2.1.4 構(gòu)建多層卷積網(wǎng)絡(luò) 28
2.2 在Keras中訓(xùn)練MNIST模型 35
2.2.1 準(zhǔn)備數(shù)據(jù)集 35
2.2.2 構(gòu)建模型 36
2.3 其他流行的圖像測試數(shù)據(jù)集 38
2.3.1 CIFAR數(shù)據(jù)集 38
2.3.2 Fashion-MNIST數(shù)據(jù)集 38
2.3.3 ImageNet數(shù)據(jù)集和競賽 39
2.4 更大的深度學(xué)習(xí)模型 40
2.4.1 AlexNet模型 40
2.4.2 VGG-16模型 41
2.4.3 谷歌Inception-V3模型 42
2.4.4 微軟ResNet-50模型 45
2.4.5 SqueezeNet模型 45
2.4.6 空間變換網(wǎng)絡(luò)模型 46
2.4.7 DenseNet模型 47
2.5 訓(xùn)練貓與狗的模型 47
2.5.1 準(zhǔn)備數(shù)據(jù) 48
2.5.2 使用簡單CNN進行基準(zhǔn)測試 48
2.5.3 增強數(shù)據(jù)集 49
2.5.4 遷移學(xué)習(xí)或微調(diào)模型 50
2.5.5 在深度學(xué)習(xí)中微調(diào)一些層 51
2.6 開發(fā)現(xiàn)實世界的應(yīng)用 53
2.6.1 選擇正確的模型 53
2.6.2 處理欠擬合和過擬合場景 53
2.6.3 從面部檢測性別和年齡 54
2.6.4 微調(diào)服裝模型 54
2.6.5 品牌安全 54
2.7 小結(jié) 54
第 3 章 圖像檢索 55
3.1 理解視覺特征 55
3.1.1 深度學(xué)習(xí)模型的可視化激活 56
3.1.2 嵌入可視化 57
3.1.3 DeepDream 60
3.1.4 對抗樣本 64
3.2 模型推斷 65
3.2.1 導(dǎo)出模型 65
3.2.2 提供訓(xùn)練好的模型 66
3.3 基于內(nèi)容的圖像檢索 68
3.3.1 構(gòu)建檢索流水線 68
3.3.2 有效的檢索 71
3.3.3 使用自編碼器去噪 74
3.4 小結(jié) 77
第 4 章 目標(biāo)檢測 78
4.1 檢測圖像中的目標(biāo) 78
4.2 探索數(shù)據(jù)集 79
4.2.1 ImageNet數(shù)據(jù)集 79
4.2.2 PASCAL VOC挑戰(zhàn) 79
4.2.3 COCO目標(biāo)檢測挑戰(zhàn) 79
4.2.4 使用指標(biāo)評估數(shù)據(jù)集 80
4.3 目標(biāo)定位算法 81
4.3.1 使用滑動窗口定位目標(biāo) 82
4.3.2 將定位看作回歸問題 83
4.4 檢測目標(biāo) 86
4.4.1 R-CNN(區(qū)域卷積神經(jīng)網(wǎng)絡(luò)) 86
4.4.2 Fast R-CNN 86
4.4.3 Faster R-CNN 87
4.4.4 SSD(單射多框探測器) 88
4.5 目標(biāo)檢測API 88
4.5.1 安裝和設(shè)置 88
4.5.2 預(yù)訓(xùn)練模型 89
4.5.3 重新訓(xùn)練目標(biāo)檢測模型 90
4.5.4 為自動駕駛汽車訓(xùn)練行人檢測 92
4.6 YOLO目標(biāo)檢測算法 92
4.7 小結(jié) 94
第 5 章 語義分割 95
5.1 預(yù)測像素 95
5.1.1 診斷醫(yī)學(xué)圖像 97
5.1.2 通過衛(wèi)星圖像了解地球 97
5.1.3 提供機器人視覺 98
5.2 數(shù)據(jù)集 98
5.3 語義分割算法 98
5.3.1 全卷積網(wǎng)絡(luò) 98
5.3.2 SegNet架構(gòu) 99
5.3.3 膨脹卷積 103
5.3.4 DeepLab 104
5.3.5 RefiNet 105
5.3.6 PSPnet 106
5.3.7 大卷積核的重要性 106
5.3.8 DeepLab v3 107
5.4 超神經(jīng)分割 107
5.5 分割衛(wèi)星圖像 111
5.6 分割實例 113
5.7 小結(jié) 114
第 6 章 相似性學(xué)習(xí) 115
6.1 相似性學(xué)習(xí)算法 115
6.1.1 孿生網(wǎng)絡(luò) 115
6.1.2 FaceNet模型 118
6.1.3 DeepNet模型 120
6.1.4 DeepRank模型 120
6.1.5 視覺推薦系統(tǒng) 121
6.2 人臉分析 122
6.2.1 人臉檢測 122
6.2.2 人臉特征點和屬性 123
6.2.3 人臉識別 126
6.2.4 人臉聚類 130
6.3 小結(jié) 131
第 7 章 圖像題注 132
7.1 了解問題和數(shù)據(jù)集 132
7.2 理解圖像題注的自然語言處理 132
7.2.1 用向量形式表達詞 133
7.2.2 將詞轉(zhuǎn)換為向量 133
7.2.3 訓(xùn)練一個嵌入 134
7.3 圖像題注和相關(guān)問題的方法 135
7.3.1 使用條件隨機場來鏈接圖像和文本 136
7.3.2 在CNN 特征上使用RNN生成題注 136
7.3.3 使用圖像排序創(chuàng)建題注 138
7.3.4 從圖像檢索題注與從題注檢索圖像 139
7.3.5 密集題注 140
7.3.6 使用RNN生成題注 141
7.3.7 使用多模態(tài)度量空間 142
7.3.8 使用注意網(wǎng)絡(luò)生成題注 143
7.3.9 知道什么時候查看 143
7.4 實現(xiàn)基于注意力的圖像題注 145
7.5 小結(jié) 147
第 8 章 生成模型 148
8.1 生成模型的應(yīng)用 148
8.1.1 藝術(shù)風(fēng)格遷移 148
8.1.2 預(yù)測視頻中的下一幀 149
8.1.3 圖像的超分辨率 150
8.1.4 交互式圖像生成 151
8.1.5 圖像到圖像的翻譯 151
8.1.6 文本到圖像的生成 152
8.1.7 圖像修復(fù) 153
8.1.8 圖像混合 153
8.1.9 轉(zhuǎn)換屬性 154
8.1.10 創(chuàng)建訓(xùn)練數(shù)據(jù) 154
8.1.11 創(chuàng)建新的動畫角色 155
8.1.12 照片3D模型 155
8.2 神經(jīng)藝術(shù)風(fēng)格遷移 156
8.2.1 內(nèi)容損失 156
8.2.2 使用Gram矩陣的風(fēng)格損失 160
8.2.3 風(fēng)格遷移 162
8.3 生成對抗網(wǎng)絡(luò) 165
8.3.1 vanilla GAN 165
8.3.2 條件GAN 167
8.3.3 對抗損失 167
8.3.4 圖像翻譯 168
8.3.5 InfoGAN 168
8.3.6 GAN的缺點 169
8.4 視覺對話模型 169
8.5 小結(jié) 171
第 9 章 視頻分類 172
9.1 了解視頻和視頻分類 172
9.1.1 探索視頻分類數(shù)據(jù)集 172
9.1.2 將視頻分割成幀 175
9.1.3 視頻分類方法 175
9.2 將基于圖像的方法擴展到視頻 184
9.2.1 人體姿態(tài)回歸 184
9.2.2 視頻分割 185
9.2.3 視頻題注 186
9.2.4 視頻生成 188
9.3 小結(jié) 188
第 10 章 部署 189
10.1 模型的性能 189
10.1.1 量化模型 189
10.1.2 MobileNets 190
10.2 云部署 193
10.2.1 AWS 193
10.2.2 Google云平臺 197
10.3 在設(shè)備中部署模型 200
10.3.1 Jetson TX2 200
10.3.2 Android 201
10.3.3 iPhone 201
10.4 小結(jié) 202

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號