定 價:¥49.00
作 者: | 宋立桓 著 |
出版社: | 清華大學(xué)出版社 |
叢編項: | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787302555513 | 出版時間: | 2020-06-01 | 包裝: | 平裝 |
開本: | 16開 | 頁數(shù): | 164 | 字?jǐn)?shù): |
目 錄
第1章 機(jī)器學(xué)習(xí)概述 1
1.1 什么是機(jī)器學(xué)習(xí) 1
1.2 機(jī)器學(xué)習(xí)的流程 3
1.2.1 數(shù)據(jù)收集 3
1.2.2 數(shù)據(jù)預(yù)處理 3
1.2.3 特征工程 4
1.2.4 模型構(gòu)建和訓(xùn)練 4
1.3 機(jī)器學(xué)習(xí)該如何學(xué) 5
1.3.1 AI時代首選Python 5
1.3.2 PyCharm可視化編輯器和Anaconda大禮包 7
1.3.3 掌握算法原理與掌握機(jī)器學(xué)習(xí)軟件庫同等重要 13
1.3.4 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的區(qū)別 13
1.4 機(jī)器學(xué)習(xí)分類 15
1.4.1 監(jiān)督學(xué)習(xí) 15
1.4.2 無監(jiān)督學(xué)習(xí) 16
1.4.3 強(qiáng)化學(xué)習(xí) 16
1.5 過擬合和欠擬合 17
1.5.1 過擬合 18
1.5.2 欠擬合 18
1.6 衡量機(jī)器學(xué)習(xí)模型的指標(biāo) 19
1.6.1 正確率、精確率和召回率 19
1.6.2 F1 score和ROC曲線 21
第2章 機(jī)器學(xué)習(xí)中的數(shù)據(jù)預(yù)處理 24
2.1 數(shù)據(jù)預(yù)處理的重要性和原則 24
2.2 數(shù)據(jù)預(yù)處理方法介紹 25
2.2.1 數(shù)據(jù)預(yù)處理案例——標(biāo)準(zhǔn)化、歸一化、二值化 25
2.2.2 數(shù)據(jù)預(yù)處理案例——缺失值補(bǔ)全、標(biāo)簽化 26
2.2.3 數(shù)據(jù)預(yù)處理案例——獨熱編碼 28
2.2.4 通過數(shù)據(jù)預(yù)處理提高模型準(zhǔn)確率 29
2.3 數(shù)據(jù)降維 31
2.3.1 什么叫數(shù)據(jù)降維 31
2.3.2 PCA主成分分析原理 31
2.3.3 PCA主成分分析實戰(zhàn)案例 33
第3章 k最近鄰算法 36
3.1 K最近鄰算法的原理 36
3.2 K最近鄰算法過程詳解 37
3.3 KNN算法的注意事項 39
3.3.1 k近鄰的k值該如何選取 39
3.3.2 距離的度量 39
3.3.3 特征歸一化的必要性 41
3.4 K最近鄰算法案例分享 42
3.4.1 電影分類kNN算法實戰(zhàn) 42
3.4.2 使用scikit-learn機(jī)器學(xué)習(xí)庫內(nèi)置的kNN算法實現(xiàn)水果識別器 44
3.5 KNN算法優(yōu)缺點 47
第4章 回歸算法 49
4.1 線性回歸 49
4.1.1 什么是線性回歸 49
4.1.2 最小二乘法 51
4.1.3 梯度下降法 52
4.2 線性回歸案例實戰(zhàn) 57
4.2.1 房價預(yù)測線性回歸模型案例一 57
4.2.2 房價預(yù)測線性回歸模型案例二 60
4.3 邏輯回歸 62
4.3.1 邏輯回歸概念和原理 62
4.3.2 邏輯回歸案例實戰(zhàn) 64
4.4 回歸算法總結(jié)和優(yōu)缺點 65
第5章 決策樹 66
5.1 決策樹概念 66
5.2 信息熵 68
5.3 信息增益與信息增益比 69
5.4 基尼系數(shù) 70
5.5 過擬合與剪枝 70
5.6 決策樹算法案例實戰(zhàn)——預(yù)測患者佩戴隱形眼鏡類型 71
5.7 決策樹算法實戰(zhàn)案例——電影喜好預(yù)測 73
5.8 總結(jié) 77
第6章 K-means聚類算法 78
6.1 何為聚類 78
6.2 K-MEANS算法思想和原理 79
6.3 K-MEANS算法涉及的參數(shù)和優(yōu)缺點 82
6.3.1 K-means涉及參數(shù) 82
6.3.2 K-means優(yōu)缺點 84
6.4 K-MEANS應(yīng)用場景 84
6.5 K-MEANS聚類算法實現(xiàn)鳶尾花數(shù)據(jù)的聚類 85
6.6 K-MEANS算法實現(xiàn)客戶價值分析 87
6.7 K-MEANS算法實現(xiàn)對亞洲足球隊做聚類 90
第7章 隨機(jī)森林 92
7.1 隨機(jī)森林概述 92
7.1.1 什么是隨機(jī)森林 92
7.1.2 隨機(jī)森林的優(yōu)缺點 93
7.2 隨機(jī)森林實戰(zhàn)——紅酒數(shù)據(jù)集案例 94
7.3 隨機(jī)森林算法實戰(zhàn)——泰坦尼克號生存預(yù)測 97
第8章 樸素貝葉斯算法 101
8.1 樸素貝葉斯算法概念和原理 101
8.2 貝葉斯算法實戰(zhàn)案例——曲奇餅 105
8.3 貝葉斯算法案例實戰(zhàn)——單詞拼寫糾錯 106
8.4 貝葉斯算法案例實戰(zhàn)——識別中文垃圾郵件 109
8.5 貝葉斯算法案例實戰(zhàn)——鳶尾花分類預(yù)測 112
第9章 支持向量機(jī)SVM 116
9.1 支持向量機(jī)概述 116
9.2 工作原理 119
9.2.1 線性分類 119
9.2.2 線性不可分 120
9.2.3 核函數(shù) 122
9.3 SVM的核函數(shù)選擇和參數(shù)的調(diào)整 122
9.4 SVM算法案例實戰(zhàn)——波士頓房價分析 124
9.5 SVM算法案例實戰(zhàn)——鳶尾花分類 126
9.6 SVM算法優(yōu)缺點 128
第10章 神經(jīng)網(wǎng)絡(luò) 130
10.1 神經(jīng)網(wǎng)絡(luò)概念 130
10.1.1 神經(jīng)元 130
10.1.2 激活函數(shù) 132
10.1.3 神經(jīng)網(wǎng)絡(luò) 133
10.2 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 135
10.2.1 計算機(jī)識別圖像的過程 135
10.2.2 卷積神經(jīng)網(wǎng)絡(luò)詳解 136
10.3 用PYTHON實現(xiàn)自己的神經(jīng)網(wǎng)絡(luò)案例 138
10.4 多層神經(jīng)網(wǎng)絡(luò)基于SKLEARN的實現(xiàn)案例 141
10.5 使用KERAS框架實現(xiàn)神經(jīng)網(wǎng)絡(luò)案例 145
10.5.1 Keras深度學(xué)習(xí)框架簡介和安裝 145
10.5.2 Keras實現(xiàn)多層感知器模型MLP 146
10.5.3 Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN 149
第11章 人臉識別入門實踐 151
11.1 人臉識別簡介 151
11.1.1 什么是人臉識別 151
11.1.2 人臉識別過程步驟 153
11.2 人臉檢測和關(guān)鍵點定位實戰(zhàn) 156
11.3 人臉表情分析——情緒識別實戰(zhàn) 160
11.4 我能認(rèn)識你——人臉識別實戰(zhàn) 161