注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書人文社科社會(huì)科學(xué)統(tǒng)計(jì)學(xué)統(tǒng)計(jì)學(xué)習(xí)必學(xué)的十個(gè)問(wèn)題:理論與實(shí)踐

統(tǒng)計(jì)學(xué)習(xí)必學(xué)的十個(gè)問(wèn)題:理論與實(shí)踐

統(tǒng)計(jì)學(xué)習(xí)必學(xué)的十個(gè)問(wèn)題:理論與實(shí)踐

定 價(jià):¥49.80

作 者: 李軒涯,張暐 著
出版社: 清華大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

ISBN: 9787302577171 出版時(shí)間: 2021-06-01 包裝: 平裝
開本: 16開 頁(yè)數(shù): 145 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  統(tǒng)計(jì)學(xué)習(xí)是機(jī)器學(xué)習(xí)的重要分支,本書兼顧了數(shù)學(xué)上的理解和代碼實(shí)踐,內(nèi)容主要包括基礎(chǔ)知識(shí)和統(tǒng)計(jì)學(xué)習(xí)模型。第1章、第2章結(jié)合VC維介紹過(guò)擬合的本質(zhì),并介紹手動(dòng)特征選擇的辦法;第3章、第4章從最簡(jiǎn)單的線性模型出發(fā)經(jīng)過(guò)概率統(tǒng)計(jì)的解讀而得到分類和回歸算法;第5章討論了不依賴于假設(shè)分布的非參數(shù)模型;第6章將核方法作為一種非線性拓展的技巧介紹如何將該方法應(yīng)用到很多算法中,并且引出了著名的高斯過(guò)程;第7章以混合高斯作為軟分配聚類的代表性方法,從而引出著名的EM算法;第8章討論了機(jī)器學(xué)習(xí)的集成算法;第9章介紹的線性和非線性降維方法將會(huì)解決維度災(zāi)難問(wèn)題,并且不同于單純的特征選擇;第10章討論了不依賴于獨(dú)立同分布假設(shè)的時(shí)間序列算法。本書適合對(duì)于統(tǒng)計(jì)學(xué)習(xí)感興趣的大學(xué)生、工程師閱讀參考。閱讀本書需要具備基礎(chǔ)的Python編程技術(shù)和基本的數(shù)學(xué)知識(shí)。

作者簡(jiǎn)介

  李軒涯,單位:百度公司,職務(wù)、職稱:高級(jí)工程師,性別:男,年齡:33,專業(yè):計(jì)算機(jī)科學(xué)與技術(shù),學(xué)歷:博士,研究成果:中國(guó)計(jì)算機(jī)學(xué)會(huì)杰出會(huì)員、常務(wù)理事,中國(guó)計(jì)算機(jī)實(shí)踐教育聯(lián)合會(huì)副理事長(zhǎng)?,F(xiàn)主管百度校企合作、校企聯(lián)合人才培養(yǎng)、校園粉絲生態(tài)圈,幫助百度技術(shù)、人才及產(chǎn)品品牌在高校領(lǐng)域的推廣與影響力傳播。

圖書目錄

第1章 防止過(guò)擬合
1.1 過(guò)擬合和欠擬合的背后
1.2 性能度量和損失函數(shù)
1.3 假設(shè)空間和VC維
1.4 偏差方差分解的意義
1.5 正則化和參數(shù)綁定
1.6 使用scikit-learn
第2章 特征選擇
2.1 包裹法Warpper
2.2 過(guò)濾法Filter
2.3 嵌入法Embedded
2.4 使用scikit-learn
第3章 回歸算法中的貝葉斯
3.1 快速理解判別式模型和生成式模型
3.2 極大似然估計(jì)和平方損失
3.3 最大后驗(yàn)估計(jì)和正則化
3.4 貝葉斯線性估計(jì)
3.5 使用scikit-learn
第4章 分類算法中的貝葉斯
4.1 廣義線性模型下的sigmoid函數(shù)和softmax函數(shù)
4.2 對(duì)數(shù)損失和交叉熵
4.3 邏輯回歸的多項(xiàng)式拓展和正則化
4.4 樸素貝葉斯分類器
4.5 拉普拉斯平滑和連續(xù)特征取值的處理方法
4.6 使用scikit-learn
第5章 非參數(shù)模型
5.1 K近鄰與距離度量
5.2 K近鄰與kd樹
5.3 決策樹和條件嫡
5.4 決策樹的剪枝
5.5 連續(xù)特征取值的處理方法和基尼指數(shù)
5.6 回歸樹
5.7 使用scikit-learn
第6章 核方法
6.1 核方法的本質(zhì)
6.2 對(duì)偶表示和拉格朗日乘子法
6.3 常見(jiàn)算法的核化拓展
6.4 高斯過(guò)程
6.5 使用scikit-learn
第7章 混合高斯:比高斯分布更強(qiáng)大
7.1 聚類的重要問(wèn)題
7.2 潛變量與K均值
7.3 混合高斯和極大似然估計(jì)的失效
7.4 EM算法的核心步驟
7.5 使用scikit-learn
第8章 模型組合策略
8.1 Bagging和隨機(jī)森林
8.2 Boosting的基本框架
8.3 Adaboost
8.4 GBDT和XGBoost
8.5 使用scikit-learn
第9章 核化降維和學(xué)習(xí)流形
9.1 線性降維
9.2 核化線性降維
9.3 流形學(xué)習(xí)
9.4 使用scikit-learn
第10章 處理時(shí)間序列
10.1 概率圖模型和隱變量
10.2 高階馬爾可夫模型
10.3 隱馬爾可夫模型
10.4 隱馬爾可夫模型的EM算法
10.5 使用scikit-learn
參考文獻(xiàn)

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)