注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能機(jī)器學(xué)習(xí):微課視頻版(Python+sklearn+TensorFlow 2.0)

機(jī)器學(xué)習(xí):微課視頻版(Python+sklearn+TensorFlow 2.0)

機(jī)器學(xué)習(xí):微課視頻版(Python+sklearn+TensorFlow 2.0)

定 價(jià):¥69.90

作 者: 王衡軍 著
出版社: 清華大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787302559283 出版時(shí)間: 2020-09-01 包裝: 平裝
開本: 16 頁數(shù): 252 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書討論了機(jī)器學(xué)習(xí)的基本問題和基本算法。從方便學(xué)習(xí)的目的出發(fā),本書主要以聚類任務(wù)、回歸任務(wù)、分類任務(wù)、標(biāo)注任務(wù)、概率模型、神經(jīng)網(wǎng)絡(luò)模型、深度學(xué)習(xí)模型七個(gè)主題對(duì)相關(guān)內(nèi)容進(jìn)行組織。前四個(gè)主題以機(jī)器學(xué)習(xí)的四個(gè)主要任務(wù)為核心討論相關(guān)算法及基礎(chǔ)知識(shí)。概率類模型和神經(jīng)網(wǎng)絡(luò)類模型可以完成聚類、回歸、分類和標(biāo)注等多類任務(wù),但它們各有自成體系的基礎(chǔ)知識(shí),因此各設(shè)一個(gè)主題進(jìn)行集中討論,可能更方便讀者理解。深度學(xué)習(xí)模型屬于神經(jīng)網(wǎng)絡(luò)模型,但它具有明顯的特征和廣泛的應(yīng)用,是機(jī)器學(xué)習(xí)領(lǐng)域的后起之秀

作者簡(jiǎn)介

暫缺《機(jī)器學(xué)習(xí):微課視頻版(Python+sklearn+TensorFlow 2.0)》作者簡(jiǎn)介

圖書目錄

目錄
第1章緒論

1.1機(jī)器學(xué)習(xí)是什么

1.2機(jī)器學(xué)習(xí)算法

1.2.1機(jī)器學(xué)習(xí)算法分類

1.2.2機(jī)器學(xué)習(xí)算法的術(shù)語

1.3本書的學(xué)習(xí)之路

1.4編程環(huán)境及工具包

第2章聚類

2.1k均值聚類算法及應(yīng)用示例

2.1.1算法及實(shí)現(xiàn)

2.1.2在手機(jī)機(jī)主身份識(shí)別中的應(yīng)用示例

2.1.3進(jìn)一步討論

2.1.4改進(jìn)算法

2.2聚類算法基礎(chǔ)

2.2.1聚類任務(wù)

2.2.2樣本點(diǎn)常用距離度量

2.2.3聚類算法評(píng)價(jià)指標(biāo)

2.2.4聚類算法分類

2.3DBSCAN及其派生算法

2.3.1相關(guān)概念及算法流程

2.3.2鄰域參數(shù)ε和MinPts的確定

2.3.3OPTICS算法

2.4AGNES算法

2.4.1簇之間的距離度量

2.4.2算法流程

2.5練習(xí)題

第3章回歸

3.1回歸任務(wù)、評(píng)價(jià)與線性回歸模型

3.1.1回歸任務(wù)

3.1.2線性回歸模型與回歸評(píng)價(jià)指標(biāo)

3.1.3最小二乘法求解線性回歸模型

3.2機(jī)器學(xué)習(xí)中的最優(yōu)化方法

3.2.1最優(yōu)化模型

3.2.2迭代法

3.2.3梯度下降法

3.2.4全局最優(yōu)與凸優(yōu)化

3.2.5牛頓法

3.3多項(xiàng)式回歸

3.4過擬合與泛化

3.4.1欠擬合、過擬合與泛化能力

3.4.2泛化能力評(píng)估方法

3.4.3過擬合抑制

3.5向量相關(guān)性與嶺回歸

3.5.1向量的相關(guān)性

3.5.2嶺回歸算法

3.6局部回歸

3.6.1局部加權(quán)線性回歸

3.6.2K近鄰法

3.7練習(xí)題





第4章分類

4.1決策樹、隨機(jī)森林及其應(yīng)用

4.1.1決策樹分類算法

4.1.2隨機(jī)森林算法

4.1.3在O2O優(yōu)惠券使用預(yù)測(cè)示例中的應(yīng)用

4.1.4進(jìn)一步討論

4.1.5回歸樹

4.2分類算法基礎(chǔ)

4.2.1分類任務(wù)

4.2.2分類模型的評(píng)價(jià)指標(biāo)

4.3邏輯回歸

4.3.1平面上二分類的線性邏輯回歸

4.3.2邏輯回歸模型

4.3.3多分類邏輯回歸

4.4Softmax回歸

4.4.1Softmax函數(shù)

4.4.2Softmax回歸模型

4.4.3進(jìn)一步討論

4.5集成學(xué)習(xí)與類別不平衡問題

4.5.1裝袋方法及應(yīng)用

4.5.2提升方法及應(yīng)用


4.5.3投票方法及應(yīng)用

4.5.4類別不平衡問題

4.6練習(xí)題

第5章特征工程、降維與超參數(shù)調(diào)優(yōu)

5.1特征工程

5.1.1數(shù)據(jù)總體分析

5.1.2數(shù)據(jù)可視化

5.1.3數(shù)據(jù)預(yù)處理

5.2線性降維

5.2.1奇異值分解

5.2.2主成分分析

5.3超參數(shù)調(diào)優(yōu)

5.3.1網(wǎng)格搜索

5.3.2隨機(jī)搜索

5.4練習(xí)題

第6章概率模型與標(biāo)注

6.1概率模型

6.1.1分類、聚類和標(biāo)注任務(wù)的概率模型

6.1.2生成模型和判別模型

6.1.3概率模型的簡(jiǎn)化假定

6.2邏輯回歸模型的概率分析

6.3樸素貝葉斯分類

6.3.1條件概率估計(jì)難題

6.3.2特征條件獨(dú)立假定

6.3.3樸素貝葉斯法的算法流程及示例

6.3.4樸素貝葉斯分類器

6.4EM算法與高斯混合聚類

6.4.1EM算法示例

6.4.2EM算法及其流程

6.4.3高斯混合聚類

6.5隱馬爾可夫模型

6.5.1馬爾可夫鏈

6.5.2隱馬爾可夫模型及示例

6.5.3前向后向算法

6.5.4維特比算法

6.6條件隨機(jī)場(chǎng)模型


6.7練習(xí)題

第7章神經(jīng)網(wǎng)絡(luò)

7.1神經(jīng)網(wǎng)絡(luò)模型

7.1.1神經(jīng)元

7.1.2神經(jīng)網(wǎng)絡(luò)

7.1.3分類、聚類、回歸、標(biāo)注任務(wù)的神經(jīng)網(wǎng)絡(luò)模型

7.2多層神經(jīng)網(wǎng)絡(luò)

7.2.1三層感知機(jī)的誤差反向傳播學(xué)習(xí)示例

7.2.2誤差反向傳播學(xué)習(xí)算法

7.2.3多層神經(jīng)網(wǎng)絡(luò)常用損失函數(shù)

7.2.4多層神經(jīng)網(wǎng)絡(luò)常用優(yōu)化算法

7.2.5多層神經(jīng)網(wǎng)絡(luò)中過擬合的抑制

7.2.6進(jìn)一步討論

7.3競(jìng)爭(zhēng)學(xué)習(xí)和自組織特征映射網(wǎng)絡(luò)

7.3.1競(jìng)爭(zhēng)學(xué)習(xí)

7.3.2自組織特征映射網(wǎng)絡(luò)的結(jié)構(gòu)與學(xué)習(xí)

7.4練習(xí)題

第8章深度學(xué)習(xí)

8.1概述

8.2卷積神經(jīng)網(wǎng)絡(luò)

8.2.1卷積神經(jīng)網(wǎng)絡(luò)示例

8.2.2卷積層

8.2.3池化層和Flatten層

8.2.4批標(biāo)準(zhǔn)化層

8.2.5典型卷積神經(jīng)網(wǎng)絡(luò)

8.3循環(huán)神經(jīng)網(wǎng)絡(luò)

8.3.1基本單元

8.3.2網(wǎng)絡(luò)結(jié)構(gòu)

8.3.3長短時(shí)記憶網(wǎng)絡(luò)

8.3.4雙向循環(huán)神經(jīng)網(wǎng)絡(luò)和深度循環(huán)神經(jīng)網(wǎng)絡(luò)

8.3.5序列標(biāo)注示例

8.4練習(xí)題

參考文獻(xiàn)

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)