注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)軟件與程序設(shè)計基于PyTorch的自然語言處理

基于PyTorch的自然語言處理

基于PyTorch的自然語言處理

定 價:¥68.00

作 者: Delip Rao,Brian McMahan 著
出版社: 中國電力出版社
叢編項:
標 簽: 暫缺

ISBN: 9787519845988 出版時間: 2020-07-01 包裝: 平裝
開本: 16開 頁數(shù): 260 字數(shù):  

內(nèi)容簡介

  探索計算圖和監(jiān)督學(xué)習(xí)范式。掌握PyTorch優(yōu)化張量庫的基礎(chǔ)。概述傳統(tǒng)的NLP概念和方法。學(xué)習(xí)構(gòu)建神經(jīng)網(wǎng)絡(luò)的基本思想。檢查前饋神經(jīng)網(wǎng)絡(luò),例如多層感知器。使用嵌入方式來表示單詞、句子、文檔等。了解如何使用遞歸神經(jīng)網(wǎng)絡(luò)對序列數(shù)據(jù)建模。探索序列預(yù)測并生成sequence-to-sequence模型。學(xué)習(xí)用于構(gòu)建NLP系統(tǒng)的設(shè)計模式。

作者簡介

  Delip Rao是Joostware的創(chuàng)始人,Joostware是一家總部位于舊金山的咨詢公司,專門從事機器學(xué)習(xí)和NLP研究。他還是Fake News Challenge的聯(lián)合創(chuàng)始人,該活動旨在將黑客和AI研究人員召集在一起,共同研究新聞中與事實相關(guān)的問題。Delip之前曾在Twitter和Amazon(Alexa)從事NLP研究和產(chǎn)品的工作。 Brian McMahan是Wells Fargo的NLP研究科學(xué)家。 在此之前,他曾在Joostware從事NLP研究。

圖書目錄

目錄
前言 1
第1 章 概述 7
監(jiān)督學(xué)習(xí)范式 9
隨機梯度下降法 11
樣本和目標編碼 12
獨熱表示(one-hot) 12
詞頻表示(TF) 14
TF-IDF 表示 15
目標編碼 16
計算圖 17
PyTorch 基礎(chǔ) 19
動態(tài)與靜態(tài)計算圖 19
安裝PyTorch 20
創(chuàng)建張量 21
張量的類型和大小 23
張量操作 25
索引、切片、連接 27
張量和計算圖 31
CUDA 張量 32
練習(xí)題 34
答案 35
小結(jié) 36
參考文獻 36
第2 章 自然語言處理 37
語料庫、詞和類型 38
特征工程 40
一元,二元,三元,…,n 元模型 41
詞形還原和詞干提取 41
文檔分類 42
單詞分類: 詞性標注 42
廣度分類: 分塊和命名實體識別 43
句子結(jié)構(gòu) 44
詞義與語義 45
小結(jié) 46
參考文獻 47
第3 章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 49
感知器: 最簡單的神經(jīng)網(wǎng)絡(luò) 49
激活函數(shù) 51
sigmoid 52
Tanh 53
ReLU 53
Softmax 54
損失函數(shù) 55
均方誤差損失 56
分類交叉熵損失 56
交叉熵損失 58
深入監(jiān)督訓(xùn)練 59
構(gòu)造樣例數(shù)據(jù) 59
綜合起來: 基于梯度的監(jiān)督學(xué)習(xí) 62
輔助訓(xùn)練的概念 63
正確度量模型性能:評估指標 64
正確度量模型性能:分割數(shù)據(jù)集 64
知道何時停止訓(xùn)練 65
找到合適的超參數(shù) 65
規(guī)范化 66
案例: 餐館評論分類 67
Yelp 評論數(shù)據(jù)集 68
理解PyTorch 的數(shù)據(jù)集表示 70
詞匯表(Vocabulary)、矢量化器(Vectorizer) 和數(shù)據(jù)轉(zhuǎn)換器(DataLoader) 73
一種感知器分類器 79
訓(xùn)練程序 80
評估、推斷和檢查 86
測試數(shù)據(jù)評估 87
小結(jié) 90
參考文獻 91
第4 章 用于自然語言處理的前饋網(wǎng)絡(luò) 93
多層感知器 94
一個簡單的例子: 二分類 96
在PyTorch 中實現(xiàn)MLP 98
示例:用MLP 進行姓氏分類 102
姓氏數(shù)據(jù)集 103
Vocabulary、Vectorizer 和DataLoader 104
姓氏分類器模型 106
訓(xùn)練程序 108
模型評估及預(yù)測 110
正則化MLP: 權(quán)重正則化和結(jié)構(gòu)正則化( 或Dropout) 112
卷積神經(jīng)網(wǎng)絡(luò) 114
CNN 超參數(shù) 115
在PyTorch 中實現(xiàn)CNN 120
示例:使用CNN 對姓氏進行分類 123
姓氏數(shù)據(jù)集類 124
詞匯表、矢量化程序和數(shù)據(jù)轉(zhuǎn)換器 125
用卷積網(wǎng)絡(luò)重新實現(xiàn)姓氏分類器 126
培訓(xùn)程序 128
模型評估及預(yù)測 129
CNN 中的雜項主題 130
池化 130
批規(guī)范化(BatchNorm) 131
網(wǎng)絡(luò)中的網(wǎng)絡(luò)連接(1x1 卷積) 131
殘差連接/ 殘差塊 132
小結(jié) 133
參考文獻 134
第5 章 嵌入單詞和類型 135
為什么學(xué)習(xí)嵌入? 136
嵌入的效率 137
學(xué)習(xí)單詞嵌入的方法 138
預(yù)置字的實際使用 138
示例:連續(xù)詞袋模型的嵌入 145
Frankenstein 數(shù)據(jù)集 146
Vocabulary、Vectorizer 和DataLoader 148
CBOWClassifier 模型 149
訓(xùn)練程序 150
模型評估及預(yù)測 151
示例:使用預(yù)先訓(xùn)練的嵌入進行文檔分類 151
新聞數(shù)據(jù)集 152
Vocabulary、Vectorizer 和DataLoader 153
NewsClassifier 模型 156
訓(xùn)練程序 159
模型評估及預(yù)測 160
小結(jié) 161
參考文獻 162
第6 章 自然語言處理的序列建模 165
遞歸神經(jīng)網(wǎng)絡(luò)簡介 166
實現(xiàn)Elman RNN 169
示例:使用字符RNN 對姓氏國籍進行分類 171
SurnameDataset 類 171
矢量化數(shù)據(jù)結(jié)構(gòu) 173
姓氏分類器模型 174
訓(xùn)練程序和結(jié)果 177
小結(jié) 178
參考文獻 178
第7 章 自然語言處理的中級序列建模 179
普通RNN(或Elman RNN)的問題 180
用門控方法解決普通RNN 存在的問題 181
示例:用于生成姓氏的字符RNN 183
SurnameDataset 類 183
矢量化數(shù)據(jù)結(jié)構(gòu) 185
從ElmanRNN 到GRU 187
模型1:無條件的姓氏生成模型 187
模型2:條件姓氏生成模型 189
訓(xùn)練程序和結(jié)果 190
訓(xùn)練序列模型的技巧和竅門 196
參考文獻 198
第8 章 自然語言處理的高級序列建模 199
序列到序列模型,編碼器- 解碼器模型和條件生成 199
從序列中捕獲更多信息:雙向遞歸模型 203
從序列中捕獲更多信息:注意力 205
深度神經(jīng)網(wǎng)絡(luò)中的注意力 207
評估序列生成模型 209
示例:神經(jīng)機器翻譯 211
機器翻譯數(shù)據(jù)集 212
NMT 的矢量化管道 213
NMT 模型中的編碼和解碼 218
訓(xùn)練程序和結(jié)果 229
小結(jié) 231
參考文獻 232
第9 章 經(jīng)典,前沿與下一步發(fā)展 235
到目前為止,我們學(xué)到了什么? 235
NLP 中的永恒主題 236
對話與交互系統(tǒng) 236
話語 237
信息提取與文本挖掘 239
文件分析與檢索 239
NLP 前沿 239
生產(chǎn)NLP 系統(tǒng)的設(shè)計模式 241
接下來呢? 246
參考文獻 247
作者介紹 249
封面介紹 249

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號