注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)大規(guī)模并行處理器程序設(shè)計(jì)(英文版·原書第3版)

大規(guī)模并行處理器程序設(shè)計(jì)(英文版·原書第3版)

大規(guī)模并行處理器程序設(shè)計(jì)(英文版·原書第3版)

定 價(jià):¥139.00

作 者: [美] 大衛(wèi)·B.柯克,胡文美 著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng): 經(jīng)典原版書庫
標(biāo) 簽: 暫缺

ISBN: 9787111668367 出版時(shí)間: 2020-11-01 包裝: 平裝
開本: 16開 頁數(shù): 568 字?jǐn)?shù):  

內(nèi)容簡介

  本書介紹并行編程和GPU架構(gòu)的基本概念,詳細(xì)探索了構(gòu)建并行程序的各種技術(shù),涵蓋性能、浮點(diǎn)格式、并行模式和動(dòng)態(tài)并行等主題,適合專業(yè)人士及學(xué)生閱讀。書中通過案例研究展示了開發(fā)過程,從計(jì)算思維的細(xì)節(jié)著手,*終給出了高效的并行程序示例。新版更新了關(guān)于CUDA的討論,包含CuDNN等新的庫,同時(shí)將不再重要的內(nèi)容移到附錄中。新版還增加了關(guān)于并行模式的兩個(gè)新章節(jié),并更新了案例研究,以反映當(dāng)前的行業(yè)實(shí)踐。

作者簡介

  大衛(wèi)·B 柯克(David B Kirk) 美國國家工程院院士,NVIDIA Fellow,曾任NVIDIA公司首席科學(xué)家。他領(lǐng)導(dǎo)了NVIDIA圖形技術(shù)的開發(fā),并且是CUDA技術(shù)的創(chuàng)始人之一。2002年,他榮獲ACM SIGGRAPH計(jì)算機(jī)圖形成就獎(jiǎng),以表彰其在把高性能計(jì)算機(jī)圖形系統(tǒng)推向大眾市場方面做出的杰出貢獻(xiàn)。他擁有加州理工學(xué)院計(jì)算機(jī)科學(xué)博士學(xué)位。胡文美(Wen-mei W Hwu) 美國伊利諾伊大學(xué)厄巴納-香檳分校電氣與計(jì)算機(jī)工程系A(chǔ)MD Jerry Sanders講席教授,并行計(jì)算研究中心首席科學(xué)家,領(lǐng)導(dǎo)IMPACT團(tuán)隊(duì)和CUDA卓越中心的研究工作。他在編譯器設(shè)計(jì)、計(jì)算機(jī)體系結(jié)構(gòu)、微體系結(jié)構(gòu)和并行計(jì)算方面做出了卓越貢獻(xiàn),是IEEE Fellow、ACM Fellow,榮獲了包括ACM SigArch Maurice Wilkes Award在內(nèi)的眾多獎(jiǎng)項(xiàng)。他還是MulticoreWare公司的聯(lián)合創(chuàng)始人兼CTO。他擁有加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)博士學(xué)位。

圖書目錄

Preface Acknowledgements
CHAPTER1 Introduction1
11 Heterogeneous Parallel Computing2
12 Architecture of a Modern GPU6
13 Why More Speed or Parallelism?8
14 Speeding Up Real Applications10
15 Challenges in Parallel Programming 12
16 Parallel Programming Languages and Models12
17 Overarching Goals14
18 Organization of the Book15
References 18
CHAPTER2 Data Parallel Computing19
21 Data Parallelism20
22 CUDA C Program Structure22
23 A Vector Addition Kernel 25
24 Device Global Memory and Data Transfer27
25 Kernel Functions and Threading32
26 Kernel Launch37
27 Summary38
Function Declarations38
Kernel Launch38
Built-in (Predefined) Variables 39
Run-time API39
28 Exercises39
References 41
CHAPTER3 Scalable Parallel Execution43
31 CUDA Thread Organization43
32 Mapping Threads to Multidimensional Data47
33 Image Blur: A More Complex Kernel 54
34 Synchronization and Transparent Scalability 58
35 Resource Assignment60
36 Querying Device Properties61
37 Thread Scheduling and Latency Tolerance64
38 Summary67
39 Exercises67
CHAPTER4 Memory and Data Locality 71
41 Importance of Memory Access Efficiency72
42 Matrix Multiplication73
43 CUDA Memory Types77
44 Tiling for Reduced Memory Traffic84
45 A Tiled Matrix Multiplication Kernel90
46 Boundary Checks94
47 Memory as a Limiting Factor to Parallelism97
48 Summary99
49 Exercises

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)