注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能機器閱讀理解:算法與實踐

機器閱讀理解:算法與實踐

機器閱讀理解:算法與實踐

定 價:¥79.00

作 者: 朱晨光 著
出版社: 機械工業(yè)出版社
叢編項: 智能系統(tǒng)與技術叢書
標 簽: 暫缺

購買這本書可以去


ISBN: 9787111649502 出版時間: 2020-04-01 包裝: 平裝
開本: 16開 頁數(shù): 244 字數(shù):  

內容簡介

  微軟高級研究員撰寫,剖析機器閱讀理解支撐技術、模型架構、前沿算法、模型SDNet源碼與落地應用。 全書分為三篇,共8章內容?;A篇(第1~3章),介紹機器閱讀理解的基礎知識和關鍵支撐技術,涵蓋機器閱讀理解任務的定義,閱讀理解模型中常用的自然語言處理技術和深度學習網(wǎng)絡模塊,例如如何讓計算機表示文章和問題、做多項選擇題及生成回答等。架構篇(第4~6章),介紹解決各類機器閱讀理解任務的基本模型架構和前沿算法,并剖析對機器閱讀理解研究有著重要影響的預訓練模型(如BERT和GPT)。實戰(zhàn)篇(第7~8章),包括筆者在2018年獲得CoQA對話閱讀理解競賽第一名時所用的模型SDNet的代碼解讀,機器閱讀理解在各種工業(yè)界應用中的具體落地過程和挑戰(zhàn),以及筆者對于機器閱讀理解未來發(fā)展方向的思考。

作者簡介

  朱晨光 微軟公司自然語言處理高級研究員、斯坦福大學計算機系博士。負責自然語言處理研究與開發(fā)、對話機器人的語義理解、機器閱讀理解研究等,精通人工智能、深度學習與自然語言處理,尤其擅長機器閱讀理解、文本總結、對話處理等方向。帶領團隊負責客服對話機器人的語義理解與分析,進行機器閱讀理解研究,在斯坦福大學舉辦的SQuAD 1.0機器閱讀理解競賽中獲得全球名,在CoQA對話閱讀理解競賽中成績超過人類水平并獲得名。在人工智能和自然語言處理會議ICLR、ACL、EMNLP、NAACL、ICLR中發(fā)表多篇文章。

圖書目錄

序一

序二

前言

第一篇 基礎篇

第1章 機器閱讀理解與關鍵支撐技術 2

1.1 機器閱讀理解任務 2

1.1.1 機器閱讀理解模型 3

1.1.2 機器閱讀理解的應用 4

1.2 自然語言處理 5

1.2.1 研究現(xiàn)狀 5

1.2.2 仍需解決的問題 6

1.3 深度學習 7

1.3.1 深度學習的特點 7

1.3.2 深度學習的成果 10

1.4 機器閱讀理解任務的測評方式 11

1.4.1 機器閱讀理解的答案形式 11

1.4.2 自由回答式答案評分標準ROUGE 12

1.5 機器閱讀理解數(shù)據(jù)集 14

1.5.1 單段落式數(shù)據(jù)集 14

1.5.2 多段落式數(shù)據(jù)集 19

1.5.3 文本庫式數(shù)據(jù)集 22

1.6 機器閱讀理解數(shù)據(jù)的生成 23

1.6.1 數(shù)據(jù)集的生成 23

1.6.2 標準答案的生成 24

1.6.3 如何設計高質量的數(shù)據(jù)集 26

1.7 本章小結 30

第2章 自然語言處理基礎 31

2.1 文本分詞 31

2.1.1 中文分詞 32

2.1.2 英文分詞 33

2.1.3 字節(jié)對編碼BPE 35

2.2 語言處理的基石:詞向量 37

2.2.1 詞的向量化 37

2.2.2 Word2vec詞向量 39

2.3 命名實體和詞性標注 42

2.3.1 命名實體識別 42

2.3.2 詞性標注 44

2.4 語言模型 48

2.4.1 N元模型 49

2.4.2 語言模型的評測 52

2.5 本章小結 53

第3章 自然語言處理中的深度學習 54

3.1 從詞向量到文本向量 54

3.1.1 利用RNN的最終狀態(tài) 55

3.1.2 利用CNN和池化 55

3.1.3 利用含參加權和 58

3.2 讓計算機做選擇題:自然語言理解 59

3.2.1 網(wǎng)絡模型 59

3.2.2 實戰(zhàn):文本分類 60

3.3 讓計算機寫文章:自然語言生成 62

3.3.1 網(wǎng)絡模型 62

3.3.2 實戰(zhàn):生成文本 63

3.3.3 集束搜索 65

3.4 讓計算機專心致志:注意力機制 67

3.4.1 注意力機制的計算 68

3.4.2 實戰(zhàn):利用內積函數(shù)計算注意力 69

3.4.3 序列到序列模型 69

3.5 本章小結 70

第二篇 架構篇

第4章 機器閱讀理解模型架構 72

4.1 總體架構 72

4.2 編碼層 74

4.2.1 詞表的建立和初始化 74

4.2.2 字符編碼 75

4.2.3 上下文編碼 77

4.3 交互層 79

4.3.1 互注意力 79

4.3.2 自注意力 81

4.3.3 上下文編碼 82

4.4 輸出層 83

4.4.1 構造問題的向量表示 83

4.4.2 多項選擇式答案生成 84

4.4.3 區(qū)間式答案生成 85

4.4.4 自由式答案生成 87

4.5 本章小結 93

第5章 常見機器閱讀理解模型 94

5.1 雙向注意力流模型 94

5.1.1 編碼層 94

5.1.2 交互層 95

5.1.3 輸出層 98

5.2 R-net 99

5.2.1 基于注意力的門控循環(huán)神經(jīng)網(wǎng)絡 100

5.2.2 網(wǎng)絡架構 101

5.3 融合網(wǎng)絡 104

5.3.1 單詞歷史 104

5.3.2 全關注注意力 105

5.3.3 總體架構 106

5.4 關鍵詞檢索與閱讀模型 109

5.4.1 檢索器 110

5.4.2 閱讀器 112

5.5 本章小結 115

第6章 預訓練模型 116

6.1 預訓練模型和遷移學習 116

6.2 基于翻譯的預訓練模型CoVe 118

6.2.1 機器翻譯模型 119

6.2.2 上下文編碼 120

6.3 基于語言模型的預訓練模型ELMo 121

6.3.1 雙向語言模型 122

6.3.2 ELMo的使用 123

6.4 生成式預訓練模型GPT 125

6.4.1 Transformer 125

6.4.2 GPT模型架構 129

6.4.3 GPT使用方法 129

6.5 劃時代的預訓練模型BERT 131

6.5.1 雙向語言模型 131

6.5.2 判斷下一段文本 132

6.5.3 BERT預訓練細節(jié) 133

6.5.4 BERT在目標任務中的使用 133

6.5.5 實戰(zhàn):在區(qū)間答案型機器閱讀理解任務中微調BERT 137

6.6 本章小結 138

第三篇 實戰(zhàn)篇

第7章 機器閱讀理解模型SDNet代碼解析 140

7.1 多輪對話式閱讀理解模型SDNet 140

7.1.1 編碼層 141

7.1.2 交互層與輸出層 142

7.2 SDNet代碼介紹與運行指南 143

7.2.1 代碼介紹 143

7.2.2 運行指南 143

7.2.3 配置文件 145

7.3 預處理程序 147

7.3.1 初始化函數(shù) 148

7.3.2 預處理函數(shù) 149

7.4 訓練程序 154

7.4.1 訓練基類 154

7.4.2 訓練子類 155

7.5 批次數(shù)據(jù)產(chǎn)生器 159

7.5.1 掩碼 160

7.5.2 準備BERT數(shù)據(jù) 164

7.6 SDNet模型 166

7.6.1 網(wǎng)絡模型類 166

7.6.2 計算層 171

7.6.3 生成BERT編碼 177

7.7 本章小結 178

第8章 機器閱讀理解的應用與未來 179

8.1 智能客服 179

8.1.1 建立產(chǎn)品客服知識庫 180

8.1.2 理解用戶意圖 181

8.1.3 答案生成 183

8.1.4 智能客服中的其他模塊 183

8.2 搜索引擎 184

8.2.1 搜索引擎技術 185

8.2.2 搜索引擎中的機器閱讀理解 187

8.2.3 未來與挑戰(zhàn) 188

8.3 醫(yī)療衛(wèi)生 189

8.4 法律 190

8.4.1 智能審判 191

8.4.2 確定適用條款 192

8.5 金融 193

8.5.1 股價預測 193

8.5.2 新聞摘要 195

8.6 教育 196

8.7 機器閱讀理解的未來 196

8.7.1 機器閱讀理解研究面臨的挑戰(zhàn) 197

8.7.2 機器閱讀理解的產(chǎn)業(yè)化 202

8.8 本章小結 203

附錄A 機器學習基礎 205

附錄B 深度學習基礎 208

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號