注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)自然語(yǔ)言處理:原理、方法與應(yīng)用

自然語(yǔ)言處理:原理、方法與應(yīng)用

自然語(yǔ)言處理:原理、方法與應(yīng)用

定 價(jià):¥59.00

作 者: 王志立、雷鵬斌、吳宇凡
出版社: 清華大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787302617747 出版時(shí)間: 2023-03-01 包裝: 平裝-膠訂
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)系統(tǒng)闡述自然語(yǔ)言處理基礎(chǔ)知識(shí),以及自然語(yǔ)言處理高級(jí)模型應(yīng)用等高級(jí)知識(shí)。 全書(shū)共11章:第1~5章為自然語(yǔ)言處理的基礎(chǔ)知識(shí),第6~11章則將自然語(yǔ)言處理知識(shí)應(yīng)用于實(shí)戰(zhàn)。書(shū)中主要內(nèi)容包括預(yù)訓(xùn)練模型、文本分類(lèi)、機(jī)器閱讀理解、命名實(shí)體識(shí)別、文本生成、模型蒸餾與剪枝及損失函數(shù)等知識(shí)。 書(shū)中包含大量應(yīng)用示例,不僅可以學(xué)會(huì)理論知識(shí)還可以靈活應(yīng)用。書(shū)中示例基于Linux與PyTorch環(huán)境開(kāi)發(fā),讀者在學(xué)習(xí)自然語(yǔ)言處理知識(shí)的同時(shí)還可學(xué)會(huì)PyTorch框架技術(shù),內(nèi)容完整、步驟清晰,提供了工程化的解決方案。 本書(shū)可作為有一定深度學(xué)習(xí)基礎(chǔ)的讀者的入門(mén)書(shū),也可作為從事自然語(yǔ)言處理算法工作的技術(shù)人員及培訓(xùn)機(jī)構(gòu)的參考書(shū)。

作者簡(jiǎn)介

  王志立,自然語(yǔ)言處理工程師,曾在國(guó)際與國(guó)內(nèi)的學(xué)術(shù)會(huì)議上發(fā)表學(xué)術(shù)論文多篇,先后在騰訊等多家知名企業(yè)從事大數(shù)據(jù)與人工智能算法工作,運(yùn)營(yíng)和分享人工智能相關(guān)知識(shí),曾獲得多項(xiàng)人工智能比賽國(guó)家級(jí)獎(jiǎng)項(xiàng)。雷鵬斌,深圳大學(xué)碩士,華為AI算法工程師,主要從事chatops、知識(shí)圖譜的研究與應(yīng)用工作,對(duì)自然語(yǔ)言處理各項(xiàng)任務(wù)的研究與應(yīng)用具有經(jīng)驗(yàn)豐富。2019—2021年在國(guó)內(nèi)知名競(jìng)賽的文本分類(lèi)、命名實(shí)體識(shí)別、機(jī)器閱讀理解、智能問(wèn)答,以及文本生成任務(wù)中摘獲大量榮譽(yù)。曾參與多項(xiàng)課題研究,在AAAI、中文信息學(xué)報(bào)等高影響力會(huì)議上發(fā)表多篇文章。吳宇凡,騰訊算法應(yīng)用研究員,長(zhǎng)期從事業(yè)務(wù)安全和金融量化相關(guān)算法研究和實(shí)踐,已發(fā)表國(guó)際頂級(jí)會(huì)議論文多篇,申請(qǐng)專(zhuān)利數(shù)篇。

圖書(shū)目錄


第1章導(dǎo)論(13min)
1.1基于深度學(xué)習(xí)的自然語(yǔ)言處理
1.2本書(shū)章節(jié)脈絡(luò)
1.3自然語(yǔ)言處理算法流程
1.4小結(jié)
第2章Python開(kāi)發(fā)環(huán)境配置(35min)
2.1Linux服務(wù)器
2.1.1MobaXterm
2.1.2使用MobaXterm連接遠(yuǎn)程服務(wù)器
2.1.3在服務(wù)器上安裝Python開(kāi)發(fā)環(huán)境
2.1.4使用Anaconda國(guó)內(nèi)源
2.1.5pip設(shè)定永久阿里云源
2.2Python虛擬環(huán)境
2.3PyCharm遠(yuǎn)程連接服務(wù)器
2.4screen任務(wù)管理
2.5Docker技術(shù)
2.6小結(jié)
第3章自然語(yǔ)言處理的發(fā)展進(jìn)程
3.1人工規(guī)則與自然語(yǔ)言處理
3.2機(jī)器學(xué)習(xí)與自熱語(yǔ)言處理
3.2.1詞袋模型
3.2.2ngram
3.2.3頻率與逆文檔頻率
3.3深度學(xué)習(xí)與自然語(yǔ)言處理
3.4小結(jié)
第4章無(wú)監(jiān)督學(xué)習(xí)的原理與應(yīng)用(30min)
4.1淺層無(wú)監(jiān)督預(yù)訓(xùn)練模型
4.2深層無(wú)監(jiān)督預(yù)訓(xùn)練模型
4.2.1BERT
4.2.2SelfAttention Layer原理
4.2.3SelfAttention Layer的內(nèi)部運(yùn)算邏輯
4.2.4MultiHead SelfAttention
4.2.5Layer Normalization
4.2.6BERT預(yù)訓(xùn)練
4.2.7BERT的微調(diào)過(guò)程
4.3其他預(yù)訓(xùn)練模型
4.3.1RoBERTa
4.3.2ERNIE
4.3.3BERT_WWM
4.3.4ALBERT
4.3.5Electra
4.3.6NEZHA
4.3.7NLP預(yù)訓(xùn)練模型對(duì)比
4.4自然語(yǔ)言處理四大下游任務(wù)
4.4.1句子對(duì)分類(lèi)任務(wù)
4.4.2單句子分類(lèi)任務(wù)
4.4.3問(wèn)答任務(wù)
4.4.4單句子標(biāo)注任務(wù)
4.5小結(jié)
第5章無(wú)監(jiān)督學(xué)習(xí)進(jìn)階
5.1生成式對(duì)抗網(wǎng)絡(luò)
5.2元學(xué)習(xí)
5.2.1MetricBased Method
5.2.2ModelBased Method
5.2.3PretrainBased Method
5.3小結(jié)
第6章預(yù)訓(xùn)練
6.1賽題任務(wù)
6.2環(huán)境搭建
6.3代碼框架
6.4數(shù)據(jù)分析實(shí)踐
6.4.1數(shù)據(jù)預(yù)處理
6.4.2預(yù)訓(xùn)練任務(wù)模型構(gòu)建與數(shù)據(jù)生成
6.4.3模型訓(xùn)練
6.5小結(jié)
第7章文本分類(lèi)(45min)
7.1數(shù)據(jù)分析
7.2環(huán)境搭建
7.3代碼框架
7.4文本分類(lèi)實(shí)踐
7.4.1數(shù)據(jù)預(yù)處理
7.4.2模型構(gòu)建
7.4.3數(shù)據(jù)迭代器
7.4.4模型訓(xùn)練
7.4.5模型預(yù)測(cè)
7.5小結(jié)
第8章機(jī)器閱讀理解(16min)
8.1機(jī)器閱讀理解的定義
8.1.1完形填空
8.1.2多項(xiàng)選擇
8.1.3片段抽取
8.1.4自由回答
8.1.5其他任務(wù)
8.2評(píng)測(cè)方法
8.3研究方法
8.3.1基于規(guī)則的方法
8.3.2基于神經(jīng)網(wǎng)絡(luò)的方法
8.3.3基于深層語(yǔ)義的圖匹配方法
8.4經(jīng)典結(jié)構(gòu)
8.4.1BiDAF模型
8.4.2QANet模型
8.4.3基于BERT模型的機(jī)器閱讀理解
8.5多文檔機(jī)器閱讀理解實(shí)踐
8.5.1疫情政務(wù)問(wèn)答助手
8.5.2信息檢索
8.5.3多任務(wù)學(xué)習(xí)
8.5.4實(shí)踐
8.6小結(jié)
第9章命名實(shí)體識(shí)別(15min)
9.1NER技術(shù)的發(fā)展現(xiàn)狀
9.2命名實(shí)體識(shí)別的定義
9.3命名實(shí)體識(shí)別模型
9.3.1預(yù)訓(xùn)練模型
9.3.2下接結(jié)構(gòu)
9.3.3條件隨機(jī)場(chǎng)
9.4命名實(shí)體識(shí)別實(shí)驗(yàn)
9.4.1數(shù)據(jù)介紹
9.4.2評(píng)估指標(biāo)
9.4.3數(shù)據(jù)預(yù)處理
9.4.4模型構(gòu)建
9.4.5數(shù)據(jù)迭代器
9.4.6模型訓(xùn)練
9.4.7模型預(yù)測(cè)
9.5小結(jié)
第10章文本生成(26min)
10.1文本生成的發(fā)展現(xiàn)狀
10.1.1文本生成模板
10.1.2變分自編碼器
10.1.3序列到序列技術(shù)
10.2基于預(yù)訓(xùn)練模型的文本生成模型
10.3文本生成任務(wù)實(shí)踐
10.3.1數(shù)據(jù)介紹
10.3.2評(píng)估指標(biāo)
10.3.3模型構(gòu)建
10.3.4數(shù)據(jù)迭代器
10.3.5模型訓(xùn)練
10.3.6模型預(yù)測(cè)
10.4小結(jié)
第11章?lián)p失函數(shù)與模型瘦身
11.1損失函數(shù)
11.2常用的損失函數(shù)
11.2.1回歸
11.2.2分類(lèi)
11.3損失函數(shù)的進(jìn)階
11.3.1樣本不均衡
11.3.2Focal Loss
11.3.3Dice Loss
11.3.4拒識(shí)
11.3.5帶噪學(xué)習(xí)
11.4模型瘦身
11.4.1知識(shí)蒸餾
11.4.2模型剪枝
11.5小結(jié)
 

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)