定 價(jià):¥89.00
作 者: | 闞道宏 |
出版社: | 清華大學(xué)出版社 |
叢編項(xiàng): | 清華科技大講堂叢書 |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787302604068 | 出版時(shí)間: | 2022-08-01 | 包裝: | 平裝 |
開本: | 16開 | 頁(yè)數(shù): | 408 | 字?jǐn)?shù): |
目錄
第1章機(jī)器學(xué)習(xí)導(dǎo)論
1.1測(cè)算房?jī)r(jià)的數(shù)學(xué)模型
1.1.1通過樣本確定模型參數(shù)
1.1.2為機(jī)器學(xué)習(xí)模型編寫程序
1.2隨機(jī)模型及其學(xué)習(xí)算法
1.2.1最小二乘法
1.2.2極大似然估計(jì)
1.2.3回歸分析方法
1.3隨機(jī)變量與數(shù)學(xué)語言
1.3.1隨機(jī)變量
1.3.2隨機(jī)變量應(yīng)用舉例
1.3.3數(shù)學(xué)語言
1.4更加復(fù)雜的數(shù)學(xué)模型
1.4.1數(shù)學(xué)形式未知的模型
1.4.2多元模型
1.4.3用矩陣描述問題及算法過程
1.5機(jī)器學(xué)習(xí)問題
1.6本章習(xí)題
第2章回歸分析
2.1編程環(huán)境與數(shù)據(jù)集
2.2數(shù)據(jù)集加載與預(yù)處理
2.2.1加載并瀏覽數(shù)據(jù)集
2.2.2缺失值與重復(fù)值
2.2.3特征選擇
2.2.4非數(shù)值型特征的編碼
2.2.5數(shù)值型特征的標(biāo)準(zhǔn)化
2.3模型訓(xùn)練與評(píng)價(jià)
2.3.1訓(xùn)練集與測(cè)試集
2.3.2模型訓(xùn)練與梯度下降法
2.3.3模型評(píng)價(jià)與k折交叉驗(yàn)證
2.4正則化
2.4.1正則化方法
2.4.2嶺回歸與超參數(shù)調(diào)優(yōu)
2.4.3LASSO回歸與坐標(biāo)下降法
2.5非線性回歸
2.5.1換元法
2.5.2邏輯斯諦回歸
2.6本章習(xí)題
第3章分類問題
3.1貝葉斯分類器
3.1.1貝葉斯決策
3.1.2樸素貝葉斯與參數(shù)估計(jì)
3.1.3邏輯斯諦回歸與牛頓法
3.2非貝葉斯分類器
3.2.1k近鄰分類器與距離度量
3.2.2線性判別分析與特征空間
3.2.3決策樹
3.3多分類問題與分類模型評(píng)價(jià)
3.3.1二分類與多分類
3.3.2分類模型的評(píng)價(jià)指標(biāo)
3.3.3PR曲線與ROC曲線
3.4特征降維
3.4.1線性代數(shù)基礎(chǔ)
3.4.2主成分分析
3.4.3線性判別分析
3.4.4非線性降維
3.5本章習(xí)題
第4章統(tǒng)計(jì)學(xué)習(xí)理論與支持向量機(jī)
4.1統(tǒng)計(jì)學(xué)習(xí)理論
4.1.1學(xué)習(xí)問題與ERM歸納原則
4.1.2ERM歸納原則一致性的充要條件
4.1.3泛化誤差上界與PAC可學(xué)習(xí)
4.1.4兩種機(jī)器學(xué)習(xí)的歸納原則
4.2線性可分支持向量機(jī)
4.2.1最優(yōu)分類超平面與支持向量
4.2.2拉格朗日乘子法與對(duì)偶問題
4.2.3最優(yōu)分類超平面求解算法
4.3非線性可分的支持向量機(jī)
4.3.1線性支持向量機(jī)
4.3.2非線性支持向量機(jī)
4.4SVM分類器及其Python實(shí)現(xiàn)
4.5本章習(xí)題
第5章聚類問題
5.1聚類問題的提出
5.1.1分類問題概述
5.1.2聚類問題概述
5.1.3混合概率模型及其參數(shù)估計(jì)問題
5.2EM算法
5.2.1EM算法原理
5.2.2高斯混合模型
5.2.3三硬幣模型
5.3k均值聚類
5.3.1k均值聚類算法
5.3.2關(guān)于k均值聚類的討論
5.3.3使用scikitlearn庫(kù)中的k均值聚類模型
5.4密度聚類DBSCAN
5.4.1DBSCAN聚類術(shù)語
5.4.2DBSCAN聚類算法
5.4.3使用scikitlearn庫(kù)中的DBSCAN聚類算法
5.5向量量化
5.5.1向量量化問題
5.5.2LBGVQ算法
5.6本章習(xí)題
第6章概率圖模型與概率推理
6.1貝葉斯網(wǎng)
6.1.1聯(lián)合概率分布及其推理
6.1.2貝葉斯網(wǎng)概述
6.1.3貝葉斯網(wǎng)的推理
6.2MCMC算法基礎(chǔ)
6.2.1蒙特卡洛仿真
6.2.2貝葉斯網(wǎng)的近似推理
6.2.3馬爾可夫鏈
6.2.4隨機(jī)向量的馬爾可夫鏈
6.3MCMC算法家族
6.3.1MCMC采樣算法
6.3.2MCMC最優(yōu)化算法
6.3.3MCMC互評(píng)算法
6.4隱馬爾可夫模型
6.4.1HMM的形式化表示及其三個(gè)基本問題
6.4.2HMM的三個(gè)基本算法
6.4.3HMM建模與實(shí)驗(yàn)
6.5無向圖模型
6.5.1馬爾可夫隨機(jī)場(chǎng)
6.5.2條件隨機(jī)場(chǎng)
6.6本章習(xí)題
第7章神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
7.1神經(jīng)元模型
7.1.1生物神經(jīng)元與MP神經(jīng)元模型
7.1.2常用激活函數(shù)
7.1.3小批量梯度下降算法
7.2神經(jīng)網(wǎng)絡(luò)
7.2.1多層前饋神經(jīng)網(wǎng)絡(luò)
7.2.2輸出層的設(shè)計(jì)
7.2.3隱層的設(shè)計(jì)
7.2.4隱層與深度學(xué)習(xí)
7.3反向傳播算法
7.3.1模型參數(shù)及其學(xué)習(xí)算法
7.3.2前向計(jì)算與反向求導(dǎo)
7.3.3反向傳播算法
7.4TensorFlow機(jī)器學(xué)習(xí)框架
7.4.1TensorFlow及其安裝
7.4.2TensorFlow底層接口編程
7.4.3使用TensorFlow底層接口搭建神經(jīng)網(wǎng)絡(luò)
7.5Keras高層接口建模
7.5.1從編程到裝配
7.5.2使用Keras高層接口建立回歸模型
7.5.3使用Keras高層接口建立分類模型
7.6本章習(xí)題
第8章深度學(xué)習(xí)
8.1卷積神經(jīng)網(wǎng)絡(luò)
8.1.1信號(hào)的特征提取
8.1.2卷積的實(shí)現(xiàn)細(xì)節(jié)
8.1.3卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
8.1.4LeNet5模型編程實(shí)戰(zhàn)
8.2循環(huán)神經(jīng)網(wǎng)絡(luò)
8.2.1序列數(shù)據(jù)的語義特征
8.2.2RNN神經(jīng)元與RNN網(wǎng)絡(luò)層
8.2.3RNN模型編程實(shí)戰(zhàn)
8.2.4LSTM模型
8.3自編碼器
8.3.1深入理解神經(jīng)網(wǎng)絡(luò)
8.3.2自編碼器及其編程實(shí)戰(zhàn)
8.3.3變分法與KL散度
8.3.4變分自編碼器
8.3.5變分自編碼器編程實(shí)戰(zhàn)
8.4生成對(duì)抗網(wǎng)絡(luò)
8.4.1生成器的工作原理
8.4.2生成對(duì)抗網(wǎng)絡(luò)概述
8.4.3DCGAN及其編程實(shí)戰(zhàn)
8.4.4WGAN及其編程實(shí)戰(zhàn)
8.5結(jié)束語
8.6本章習(xí)題
參考文獻(xiàn)