注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計其他編程語言/工具精通Transformer:從零開始構(gòu)建最先進(jìn)的NLP模型

精通Transformer:從零開始構(gòu)建最先進(jìn)的NLP模型

精通Transformer:從零開始構(gòu)建最先進(jìn)的NLP模型

定 價:¥99.00

作 者: [土]薩瓦斯·伊爾蒂利姆,[伊朗]梅薩姆·阿斯加里-切納格盧 著,江紅 余青松 余靖 譯
出版社: 北京理工大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

ISBN: 9787576322279 出版時間: 2023-04-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  AI領(lǐng)域的基石王者,那些還沉迷于CNN,RNN的工程師被警告:放棄戰(zhàn)斗吧,向Transformer投降!在過去的二十年中,自然語言處理研究領(lǐng)域發(fā)生了翻天覆地的變化。在這段時間里,自然語 言處理經(jīng)歷了不同的處理范式,并終進(jìn)入了一個由神奇的Transformer體系結(jié)構(gòu)主導(dǎo)的新時代。 Transformer深度學(xué)習(xí)架構(gòu)是通過繼承許多方法而產(chǎn)生的,其中包括上下文詞嵌入、多頭注意力機(jī)制、位置編碼、并行體系結(jié)構(gòu)、模型壓縮、遷移學(xué)習(xí)、跨語言模型等。在各種基于神經(jīng)的自然語言處理方法中, Transformer架構(gòu)逐漸演變?yōu)榛谧⒁饬Φ?ldquo;編碼器-解碼器”體系結(jié)構(gòu),并持續(xù)發(fā)展到今天。現(xiàn)在,我們在文獻(xiàn)中看到了這種體系結(jié)構(gòu)的新的成功變體。目前研究已經(jīng)發(fā)現(xiàn)了只使用 Transformer 架構(gòu)中編碼器部分的出色模型,如 BERT(Bidirectional Encoder Representations from Transformers,Transformers雙向編碼表示);或者只使用Transformer架構(gòu) 中解碼器部分的出色模型,如 GPT(Generated Pre -trained Transformer,生成式的預(yù)訓(xùn)練Transformer)。本書涵蓋了這些自然語言處理方法。基于 Hugging Face社區(qū)的Transformer庫,我們能夠輕 松地使用Transformer。 本書將循序漸進(jìn)地提供各種自然語言處理問題的解決方案:從文檔摘要到問 題回答系統(tǒng)。我們將看到,基于Transformer, 可以取得的成果。

作者簡介

  本書由Savas Yldmnm專業(yè)人士編寫薩瓦斯 ·伊爾蒂利姆 (Savas Yldmnm) 畢業(yè)于伊斯坦布爾技術(shù)大學(xué)計算機(jī)工程系,擁有自然 語言處理 (NaturalLanguageProcessing,NLP)專業(yè)的博士學(xué)位。目前,他是土耳其伊斯坦布爾比爾基大學(xué)的副教授,也是加拿大瑞爾森大學(xué)的訪問研究員。他是一位積極熱情的講師和研究員, 具有20多年教授機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和自然語言處理等課程的豐富經(jīng)驗。他開發(fā)了大量的開源軟件和資源,為土耳其自然語言理解社區(qū)做出了重大貢獻(xiàn)。他還為人工智能公司的研究開發(fā)項目提供全面的咨詢服務(wù)。

圖書目錄

暫缺《精通Transformer:從零開始構(gòu)建最先進(jìn)的NLP模型》目錄

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號