注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡軟件與程序設計其他編程語言/工具精通Transformer:從零開始構(gòu)建最先進的NLP模型

精通Transformer:從零開始構(gòu)建最先進的NLP模型

精通Transformer:從零開始構(gòu)建最先進的NLP模型

定 價:¥99.00

作 者: [土]薩瓦斯·伊爾蒂利姆,[伊朗]梅薩姆·阿斯加里-切納格盧 著,江紅 余青松 余靖 譯
出版社: 北京理工大學出版社
叢編項:
標 簽: 暫缺

ISBN: 9787576322279 出版時間: 2023-04-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  AI領域的基石王者,那些還沉迷于CNN,RNN的工程師被警告:放棄戰(zhàn)斗吧,向Transformer投降!在過去的二十年中,自然語言處理研究領域發(fā)生了翻天覆地的變化。在這段時間里,自然語 言處理經(jīng)歷了不同的處理范式,并終進入了一個由神奇的Transformer體系結(jié)構(gòu)主導的新時代。 Transformer深度學習架構(gòu)是通過繼承許多方法而產(chǎn)生的,其中包括上下文詞嵌入、多頭注意力機制、位置編碼、并行體系結(jié)構(gòu)、模型壓縮、遷移學習、跨語言模型等。在各種基于神經(jīng)的自然語言處理方法中, Transformer架構(gòu)逐漸演變?yōu)榛谧⒁饬Φ?ldquo;編碼器-解碼器”體系結(jié)構(gòu),并持續(xù)發(fā)展到今天?,F(xiàn)在,我們在文獻中看到了這種體系結(jié)構(gòu)的新的成功變體。目前研究已經(jīng)發(fā)現(xiàn)了只使用 Transformer 架構(gòu)中編碼器部分的出色模型,如 BERT(Bidirectional Encoder Representations from Transformers,Transformers雙向編碼表示);或者只使用Transformer架構(gòu) 中解碼器部分的出色模型,如 GPT(Generated Pre -trained Transformer,生成式的預訓練Transformer)。本書涵蓋了這些自然語言處理方法?;?Hugging Face社區(qū)的Transformer庫,我們能夠輕 松地使用Transformer。 本書將循序漸進地提供各種自然語言處理問題的解決方案:從文檔摘要到問 題回答系統(tǒng)。我們將看到,基于Transformer, 可以取得的成果。

作者簡介

  本書由Savas Yldmnm專業(yè)人士編寫薩瓦斯 ·伊爾蒂利姆 (Savas Yldmnm) 畢業(yè)于伊斯坦布爾技術大學計算機工程系,擁有自然 語言處理 (NaturalLanguageProcessing,NLP)專業(yè)的博士學位。目前,他是土耳其伊斯坦布爾比爾基大學的副教授,也是加拿大瑞爾森大學的訪問研究員。他是一位積極熱情的講師和研究員, 具有20多年教授機器學習、深度學習和自然語言處理等課程的豐富經(jīng)驗。他開發(fā)了大量的開源軟件和資源,為土耳其自然語言理解社區(qū)做出了重大貢獻。他還為人工智能公司的研究開發(fā)項目提供全面的咨詢服務。

圖書目錄

暫缺《精通Transformer:從零開始構(gòu)建最先進的NLP模型》目錄

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號