注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能深入淺出Embedding:原理解析與應(yīng)用實(shí)踐

深入淺出Embedding:原理解析與應(yīng)用實(shí)踐

深入淺出Embedding:原理解析與應(yīng)用實(shí)踐

定 價(jià):¥99.00

作 者: 吳茂貴,王紅星 著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111680642 出版時(shí)間: 2021-06-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 320 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  【免費(fèi)獲取】配套代碼 數(shù)據(jù) 共讀實(shí)戰(zhàn)營(yíng) 作者答疑群告別拖延癥,14天掌握Embedding(社區(qū)領(lǐng)讀10天 5個(gè)作業(yè) 4天實(shí)戰(zhàn))獲取方式:1、微信關(guān)注“華章計(jì)算機(jī)”2、在后臺(tái)回復(fù)關(guān)鍵詞:Embedding 這是一本系統(tǒng)、全面、理論與實(shí)踐相結(jié)合的Embedding技術(shù)指南,由資深的AI技術(shù)專(zhuān)家和高級(jí)數(shù)據(jù)科學(xué)家撰寫(xiě),得到了黃鐵軍、韋青、張崢、周明等中國(guó)人工智能領(lǐng)域的領(lǐng)軍人物的一致好評(píng)和推薦。在內(nèi)容方面,本書(shū)理論與實(shí)操兼顧,一方面系統(tǒng)講解了Embedding的基礎(chǔ)、技術(shù)、原理、方法和性能優(yōu)化,一方面詳細(xì)列舉和分析了Embedding在機(jī)器學(xué)習(xí)性能提升、中英文翻譯、推薦系統(tǒng)等6個(gè)重要場(chǎng)景的應(yīng)用實(shí)踐;在寫(xiě)作方式上,秉承復(fù)雜問(wèn)題簡(jiǎn)單化的原則,盡量避免復(fù)雜的數(shù)學(xué)公式,盡量采用可視化的表達(dá)方式,旨在降低本書(shū)的學(xué)習(xí)門(mén)檻,讓讀者能看得完、學(xué)得會(huì)。 全書(shū)一共16章,分為兩個(gè)部分:第1部分(第1~9章)Embedding理論知識(shí)主要講解Embedding的基礎(chǔ)知識(shí)、原理以及如何讓Embedding落地的相關(guān)技術(shù),如TensorFlow和PyTorch中的Embedding層、CNN算法、RNN算法、遷移學(xué)習(xí)方法等,重點(diǎn)介紹了Transformer和基于它的GPT、BERT預(yù)訓(xùn)練模型及BERT的多種改進(jìn)版本等。第二部分(第10 ~16章)Embedding應(yīng)用實(shí)例通過(guò)6個(gè)實(shí)例介紹了Embedding及相關(guān)技術(shù)的實(shí)際應(yīng)用,包括如何使用Embedding提升傳統(tǒng)機(jī)器學(xué)習(xí)性,如何把Embedding技術(shù)應(yīng)用到推薦系統(tǒng)中,如何使用Embedding技術(shù)提升NLP模型的性能等。

作者簡(jiǎn)介

  吳茂貴資深大數(shù)據(jù)和人工智能技術(shù)專(zhuān)家,在BI、數(shù)據(jù)挖掘與分析、數(shù)據(jù)倉(cāng)庫(kù)、機(jī)器學(xué)習(xí)等領(lǐng)域工作超過(guò)20年。在基于Spark、TensorFlow、PyTorch、Keras等的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)方面有大量的工程實(shí)踐實(shí)踐,對(duì)Embedding有深入研究。著有《深度實(shí)踐Spark機(jī)器學(xué)習(xí)》《Python深度學(xué)習(xí):基于TensorFlow》《Python深度學(xué)習(xí):基于Pytorch》等多部著作,廣受讀者好評(píng)。 王紅星高級(jí)數(shù)據(jù)科學(xué)家,任職于博世(中國(guó))投資有限公司蘇州分公司,負(fù)責(zé)BOSCH數(shù)據(jù)湖,數(shù)據(jù)分析與人工智能相關(guān)的產(chǎn)品與服務(wù)的設(shè)計(jì)和開(kāi)發(fā)。在大數(shù)據(jù)、機(jī)器學(xué)習(xí)、人工智能方面有豐富的實(shí)踐經(jīng)驗(yàn)。

圖書(shū)目錄

前言
部分 Embedding基礎(chǔ)知識(shí)
第1章 萬(wàn)物皆可嵌入2
1.1 處理序列問(wèn)題的一般步驟3
1.2 Word Embedding4
1.2.1 word2vec之前4
1.2.2 CBOW模型5
1.2.3 Skip-Gram模型6
1.2.4 可視化Skip-Gram模型實(shí)現(xiàn)過(guò)程8
1.2.5 Hierarchical Softmax優(yōu)化14
1.2.6 Negative Sampling優(yōu)化15
1.3 Item Embedding16
1.3.1 微軟推薦系統(tǒng)使用Item Embedding16
1.3.2 Airbnb推薦系統(tǒng)使用Item Embedding17
1.4 用Embedding處理分類(lèi)特征17
1.5 Graph Embedding20
1.5.1 DeepWalk方法21
1.5.2 LINE方法21
1.5.3 node2vec方法23
1.5.4 Graph Embedding在阿里的應(yīng)用23
1.5.5 知識(shí)圖譜助力推薦系統(tǒng)實(shí)例26
1.6 Contextual Word Embedding26
1.6.1 多種預(yù)訓(xùn)練模型概述27
1.6.2 多種預(yù)訓(xùn)練模型的發(fā)展脈絡(luò)29
1.6.3 各種預(yù)訓(xùn)練模型的優(yōu)缺點(diǎn)29
1.6.4 常用預(yù)訓(xùn)練模型30
1.6.5 Transformer的應(yīng)用32
1.7 使用Word Embedding實(shí)現(xiàn)中文自動(dòng)摘要35
1.7.1 背景說(shuō)明35
1.7.2 預(yù)處理中文語(yǔ)料庫(kù)35
1.7.3 生成詞向量36
1.7.4 把文檔的詞轉(zhuǎn)換為詞向量36
1.7.5 生成各主題的關(guān)鍵詞38
1.7.6 查看運(yùn)行結(jié)果39
1.8 小結(jié)40
第2章 獲取Embedding的方法41
2.1 使用PyTorch的Embedding Layer41
2.1.1 語(yǔ)法格式41
2.1.2 簡(jiǎn)單實(shí)例43
2.1.3 初始化44
2.2 使用TensorFlow 2.0的Embedding Layer45
2.2.1 語(yǔ)法格式45
2.2.2 簡(jiǎn)單實(shí)例45
2.3 從預(yù)訓(xùn)練模型獲取Embedding47
2.3.1 背景說(shuō)明47
2.3.2 下載IMDB數(shù)據(jù)集47
2.3.3 進(jìn)行分詞47
2.3.4 下載并預(yù)處理GloVe詞嵌入48
2.3.5 構(gòu)建模型49
2.3.6 訓(xùn)練模型50
2.3.7 可視化訓(xùn)練結(jié)果50
2.3.8 不使用預(yù)訓(xùn)練詞嵌入的情況51
2.4 小結(jié)53
第3章 計(jì)算機(jī)視覺(jué)處理54
3.1 卷積神經(jīng)網(wǎng)絡(luò)54
3.1.1 卷積網(wǎng)絡(luò)的一般架構(gòu)55
3.1.2 增加通道的魅力56
3.1.3 加深網(wǎng)絡(luò)的動(dòng)機(jī)57
3.1.4 殘差連接58
3.2 使用預(yù)訓(xùn)練模型59
3.2.1 遷移學(xué)習(xí)簡(jiǎn)介59
3.2.2 使用預(yù)訓(xùn)練模型的方法60
3.3 獲取預(yù)訓(xùn)練模型63
3.4 使用PyTorch實(shí)現(xiàn)數(shù)據(jù)遷移實(shí)例64
3.4.1 特征提取實(shí)例64
3.4.2 微調(diào)實(shí)例67
3.5 小結(jié)69
第4章 文本及序列處理70
4.1 循環(huán)網(wǎng)絡(luò)的基本結(jié)構(gòu)70
4.1.1 標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)71
4.1.2 深度循環(huán)神經(jīng)網(wǎng)絡(luò)72
4.1.3 LSTM網(wǎng)絡(luò)結(jié)構(gòu)72
4.1.4 GRU網(wǎng)絡(luò)結(jié)構(gòu)73
4.1.5 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)74
4.2 構(gòu)建一些特殊模型75
4.2.1 Encoder-Decoder模型75
4.2.2 Seq2Seq模型77
4.3 小結(jié)77
第5章 注意力機(jī)制78
5.1 注意力機(jī)制概述78
5.1.1 兩種常見(jiàn)的注意力機(jī)制79
5.1.2 注意力機(jī)制的本質(zhì)79
5.2 帶注意力機(jī)制的Encoder-Decoder模型81
5.2.1 引入注意力機(jī)制81
5.2.2 計(jì)算注意力分配值83
5.2.3 使用PyTorch實(shí)現(xiàn)帶注意力機(jī)制的Encoder-Decoder模型85
5.3 可視化Transformer88
5.3.1 Transformer的頂層設(shè)計(jì)89
5.3.2 Encoder與Decoder的輸入91
5.3.3 高并發(fā)長(zhǎng)記憶的實(shí)現(xiàn)91
5.3.4 為加深Transformer網(wǎng)絡(luò)層保駕護(hù)航的幾種方法98
5.3.5 如何自監(jiān)督學(xué)習(xí)98
5.4 使用PyTorch實(shí)現(xiàn)Transformer101
5.4.1 Transformer背景介紹101
5.4.2 構(gòu)建Encoder-Decoder模型101
5.4.3 構(gòu)建Encoder102
5.4.4 構(gòu)建Decoder105
5.4.5 構(gòu)建MultiHeadedAttention107
5.4.6 構(gòu)建前饋網(wǎng)絡(luò)層109
5.4.7 預(yù)處理輸入數(shù)據(jù)109
5.4.8 構(gòu)建完整網(wǎng)絡(luò)112
5.4.9 訓(xùn)練模型113
5.4.10 實(shí)現(xiàn)一個(gè)簡(jiǎn)單實(shí)例117
5.5 Transformer-XL119
5.5.1 引入循環(huán)機(jī)制119
5.5.2 使用相對(duì)位置編碼121
5.5.3 Transformer-XL計(jì)算過(guò)程122
5.6 使用PyTorch構(gòu)建Transformer-XL123
5.6.1 構(gòu)建單個(gè)Head Attention123
5.6.2 構(gòu)建MultiHeadAttention126
5.6.3 構(gòu)建Decoder129
5.7 Reformer130
5.7.1 使用局部敏感哈希130
5.7.2 使用可逆殘差網(wǎng)絡(luò)131
5.8 小結(jié)132
第6章 從Word Embedding到ELMo133
6.1 從word2vec到ELMo133
6.2 可視化ELMo原理134
6.2.1 字符編碼層135
6.2.2 雙向語(yǔ)言模型137
6.2.3 生成ELMo詞嵌入138
6.3 小結(jié)139
第7章 從ELMo到BERT和GPT140
7.1 ELMo的優(yōu)缺點(diǎn)140
7.2 可視化BERT原理141
7.2.1 BERT的整體架構(gòu)141
7.2.2 BERT的輸入143
7.2.3 掩碼語(yǔ)言模型144
7.2.4 預(yù)測(cè)下一個(gè)句子145
7.2.5 微調(diào)146
7.2.6 使用特征提取方法147
7.3 使用PyTorch實(shí)現(xiàn)BERT148
7.3.1 BERTEmbedding類(lèi)的代碼149
7.3.2 TransformerBlock類(lèi)的代碼149
7.3.3 構(gòu)建BERT的代碼150
7.4 可視化GPT原理151
7.4.1 GPT簡(jiǎn)介151
7.4.2 GPT的整體架構(gòu)151
7.4.3 GPT的模型結(jié)構(gòu)152
7.4.4 GPT-2的Multi-Head與BERT的Multi-Head之間的區(qū)別153
7.4.5 GPT-2的輸入153
7.4.6 GPT-2計(jì)算遮掩自注意力的詳細(xì)過(guò)程154
7.4.7 輸出156
7.4.8 GPT與GPT-2的異同156
7.5 GPT-3簡(jiǎn)介157
7.6 小結(jié)160
第8章 BERT的優(yōu)化方法161
8.1 可視化XLNet原理162
8.1.1 排列語(yǔ)言模型簡(jiǎn)介162
8.1.2 使用雙流自注意力機(jī)制163
8.1.3 融入Transformer-XL的理念164
8.1.4 改進(jìn)后的效果164
8.2 ALBERT方法164
8.2.1 分解Vocabulary Embedding矩陣165
8.2.2 跨層共享參數(shù)167
8.2.3 用SOP代替NSP方法168
8.2.4 其他優(yōu)化方法169
8.3 ELECTRA方法170
8.3.1 ELECTRA概述170
8.3.2 RTD結(jié)構(gòu)171
8.3.3 損失函數(shù)171
8.3.4 ELECTRA與GAN的異同172
8.3.5 評(píng)估172
8.4 小結(jié)173
第9章 推薦系統(tǒng)174
9.1 推薦系統(tǒng)概述174
9.1.1 推薦系統(tǒng)的一般流程174
9.1.2 常用推薦算法175
9.2 協(xié)同過(guò)濾176
9.2.1 基于用戶的協(xié)同過(guò)濾176
9.2.2 基于物品的協(xié)同過(guò)濾177
9.3 深度學(xué)習(xí)在推薦系統(tǒng)中的應(yīng)用178
9.3.1 協(xié)同過(guò)濾中與神經(jīng)網(wǎng)絡(luò)結(jié)合178
9.3.2 融入多層感知機(jī)的推薦系統(tǒng)179
9.3.3 融入卷積網(wǎng)絡(luò)的推薦系統(tǒng)180
9.3.4 融入Transformer的推薦系統(tǒng)181
9.4 小結(jié)183
第二部分 Embedding應(yīng)用實(shí)例
第10章 用Embedding表現(xiàn)分類(lèi)特征186
10.1 項(xiàng)目背景186
10.1.1 項(xiàng)目概述186
10.1.2 數(shù)據(jù)集說(shuō)明187
10.2 TensorFlow 2詳細(xì)實(shí)現(xiàn)188
10.2.1 導(dǎo)入TensorFlow和其他庫(kù)188
10.2.2 導(dǎo)入數(shù)據(jù)集并創(chuàng)建dataframe188
10.2.3 將dataframe拆分為訓(xùn)練、驗(yàn)證和測(cè)試集189
10.2.4 用tf.data創(chuàng)建輸入流水線189
10.2.5 TensorFlow提供的幾種處理特征列的方法190
10.2.6 選擇特征193
10.2.7 創(chuàng)建網(wǎng)絡(luò)的輸入層194
10.2.8 創(chuàng)建、編譯和訓(xùn)練模型194
10.2.9 可視化訓(xùn)練過(guò)程195
10.2.10 測(cè)試模型196
10.3 小結(jié)197
第11章 用Embedding提升機(jī)器學(xué)習(xí)性能198
11.1 項(xiàng)目概述198
11.1.1 數(shù)據(jù)集簡(jiǎn)介199
11.1.2 導(dǎo)入數(shù)據(jù)200
11.1.3 預(yù)處理數(shù)據(jù)201
11.1.4 定義公共函數(shù)203
11.2 使用Embedding提升神經(jīng)網(wǎng)絡(luò)性能205
11.2.1 基于獨(dú)熱編碼的模型205
11.2.2 基于Embedding的模型207
11.3 構(gòu)建XGBoost模型211
11.4 使用Embedding數(shù)據(jù)的XGBoost模型212
11.5 可視化Embedding數(shù)據(jù)213
11.6 小結(jié)215
第12章 用Transformer實(shí)現(xiàn)英譯中216
12.1 TensorFlow 2 實(shí)例概述216
12.2 預(yù)處理數(shù)據(jù)217
12.2.1 下載數(shù)據(jù)217
12.2.2 分割數(shù)據(jù)219
12.2.3 創(chuàng)建英文語(yǔ)料字典220
12.2.4 創(chuàng)建中文語(yǔ)料字典222
12.2.5 定義編碼函數(shù)222
12.2.6 過(guò)濾數(shù)據(jù)223
12.2.7 創(chuàng)建訓(xùn)練集和驗(yàn)證集223
12.3 構(gòu)建Transformer模型225
12.3.1 Transformer模型架構(gòu)圖225
12.3.2 架構(gòu)說(shuō)明226
12.3.3 構(gòu)建scaled_dot_product_attention模塊226
12.3.4 構(gòu)建MultiHeadAttention模塊227
12.3.5 構(gòu)建point_wise_feed_forward_network模塊228
12.3.6 構(gòu)建EncoderLayer模塊228
12.3.7 構(gòu)建Encoder模塊229
12.3.8 構(gòu)建DecoderLayer模塊230
12.3.9 構(gòu)建Decoder模塊231
12.3.10 構(gòu)建Transformer模型232
12.3.11 定義掩碼函數(shù)233
12.4 定義損失函數(shù)236
12.5 定義優(yōu)化器237
12.6 訓(xùn)練模型239
12.6.1 實(shí)例化Transformer239
12.6.2 設(shè)置checkpoint239
12.6.3 生成多種掩碼240
12.6.4 定義訓(xùn)練模型函數(shù)240
12.6.5 訓(xùn)練模型241
12.7 評(píng)估預(yù)測(cè)模型242
12.7.1 定義評(píng)估函數(shù)242
12.7.2 測(cè)試翻譯幾個(gè)簡(jiǎn)單語(yǔ)句243
12.8 可視化注意力權(quán)重243
12.9 小結(jié)245
第13章 Embedding技術(shù)在推薦系統(tǒng)中的應(yīng)用246
13.1 Embedding在Airbnb推薦系統(tǒng)中的應(yīng)用246
13.2 Transformer在阿里推薦系統(tǒng)中的應(yīng)用249
13.3 BERT在美團(tuán)推薦系統(tǒng)中的應(yīng)用250
13.4 小結(jié)253
第14章 用BERT實(shí)現(xiàn)中文語(yǔ)句分類(lèi)254
14.1 背景說(shuō)明254
14.1.1 查看中文BERT字典里的一些信息255
14.1.2 使用tokenizer分割中文語(yǔ)句256
14.2 可視化BERT注意力權(quán)重256
14.2.1 BERT對(duì)MASK字的預(yù)測(cè)256
14.2.2 導(dǎo)入可視化需要的庫(kù)257
14.2.3 可視化258
14.3 用BERT預(yù)訓(xùn)練模型微調(diào)下游任務(wù)259
14.3.1 準(zhǔn)備原始文本數(shù)據(jù)259
14.3.2 將原始文本轉(zhuǎn)換成BERT的輸入格式260
14.3.3 定義讀取數(shù)據(jù)的函數(shù)261
14.3.4 讀取數(shù)據(jù)并進(jìn)行數(shù)據(jù)轉(zhuǎn)換263
14.3.5 增加一個(gè)批量維度264
14.3.6 查看一個(gè)批次數(shù)據(jù)樣例265
14.3.7 微調(diào)BERT完成下游任務(wù)265
14.3.8 查看微調(diào)后模型的結(jié)構(gòu)266
14.4 訓(xùn)練模型267
14.4.1 定義預(yù)測(cè)函數(shù)267
14.4.2 訓(xùn)練模型268
14.5 測(cè)試模型269
14.5.1 用新數(shù)據(jù)測(cè)試模型269
14.5.2 比較微調(diào)前后的數(shù)據(jù)異同270
14.5.3 可視化注意力權(quán)重271
14.6 小結(jié)272
第15章 用GPT-2生成文本273
15.1 GPT-2概述273
15.2 用GPT-2生成新聞275
15.2.1 定義隨機(jī)選擇函數(shù)275
15.2.2 使用預(yù)訓(xùn)練模型生成新聞275
15.3 微調(diào)GPT-2生成戲劇文本277
15.3.1 讀取文件277
15.3.2 對(duì)文件進(jìn)行分詞277
15.3.3 把數(shù)據(jù)集轉(zhuǎn)換為可迭代對(duì)象278
15.3.4 訓(xùn)練模型278
15.3.5 使用模型生成文本279
15.4 小結(jié)280
第16章 Embedding技術(shù)總結(jié)281
16.1 Embedding技術(shù)回顧281
16.1.1 Embedding表示281
16.1.2 多種學(xué)習(xí)Embedding表示的算法282
16.1.3 幾種Embedding衍生技術(shù)283
16.1.4 Embedding技術(shù)的不足285
16.2 Embedding技術(shù)展望285
16.2.1 從Embedding的表示方面進(jìn)行優(yōu)化285
16.2.2 從Embedding的結(jié)構(gòu)上進(jìn)行優(yōu)化286
16.3 小結(jié)286
附錄A 基于GPU的TensorFlow 2 、PyTorch 1 升級(jí)安裝287
附錄B 語(yǔ)言模型307

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)