注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能統(tǒng)計(jì)學(xué)習(xí)理論與方法(R語(yǔ)言版)

統(tǒng)計(jì)學(xué)習(xí)理論與方法(R語(yǔ)言版)

統(tǒng)計(jì)學(xué)習(xí)理論與方法(R語(yǔ)言版)

定 價(jià):¥79.00

作 者: 左飛
出版社: 清華大學(xué)出版社
叢編項(xiàng): 人工智能科學(xué)與技術(shù)叢書(shū)
標(biāo) 簽: 暫缺

購(gòu)買這本書(shū)可以去


ISBN: 9787302530886 出版時(shí)間: 2020-06-01 包裝:
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 396 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)從統(tǒng)計(jì)學(xué)觀點(diǎn)出發(fā),以數(shù)理統(tǒng)計(jì)為基礎(chǔ),全面系統(tǒng)地介紹了統(tǒng)計(jì)機(jī)器學(xué)習(xí)的主要方法。內(nèi)容涉及回歸(線性回歸、多項(xiàng)式回歸、非線性回歸、嶺回歸,以及LASSO等)、分類(感知機(jī)、邏輯回歸、樸素貝葉斯、決策樹(shù)、支持向量機(jī)、人工神經(jīng)網(wǎng)絡(luò)等)、聚類(K均值、EM算法、密度聚類等)、蒙特卡洛采樣(拒絕采樣、自適應(yīng)拒絕采樣、重要性采樣、吉布斯采樣和馬爾科夫鏈蒙特卡洛等)、降維與流形學(xué)習(xí)(SVD、PCA和MDS等),以及概率圖模型基礎(chǔ)等話題。此外,為方便讀者自學(xué),本書(shū)還扼要地介紹了機(jī)器學(xué)習(xí)中所必備的數(shù)學(xué)知識(shí)(包括概率論與數(shù)理統(tǒng)計(jì)、凸優(yōu)化及泛函分析基礎(chǔ)等)。 本書(shū)是統(tǒng)計(jì)機(jī)器學(xué)習(xí)及相關(guān)課程的教學(xué)參考書(shū),適用于高等院校人工智能、機(jī)器學(xué)習(xí)或數(shù)據(jù)挖掘等相關(guān)專業(yè)的師生研習(xí)之用,也可供從事計(jì)算機(jī)應(yīng)用,特別是數(shù)據(jù)科學(xué)相關(guān)專業(yè)的研發(fā)人員參考。

作者簡(jiǎn)介

  左飛博士,技術(shù)作家、譯者。著作涉及人工智能、圖像處理和編程語(yǔ)言等多個(gè)領(lǐng)域,其中兩部作品的繁體版在中國(guó)臺(tái)灣地區(qū)發(fā)行。同時(shí),他還翻譯出版了包括《編碼》在內(nèi)的多部經(jīng)典著作。曾榮獲“最受讀者喜愛(ài)的IT圖書(shū)作譯者獎(jiǎng)”。他撰寫(xiě)的技術(shù)博客(

圖書(shū)目錄

目錄





第1章概率論基礎(chǔ)


1.1基本概念


1.2隨機(jī)變量數(shù)字特征


1.2.1期望


1.2.2方差


1.2.3矩與矩母函數(shù)


1.2.4協(xié)方差與協(xié)方差矩陣


1.3基本概率分布模型


1.3.1離散概率分布


1.3.2連續(xù)概率分布


1.3.3在R中使用內(nèi)嵌分布


1.4概率論中的重要定理


1.4.1大數(shù)定理


1.4.2中央極限定理


1.5經(jīng)驗(yàn)分布函數(shù)


第2章統(tǒng)計(jì)推斷


2.1參數(shù)估計(jì)


2.1.1參數(shù)估計(jì)的基本原理


2.1.2單總體參數(shù)區(qū)間估計(jì)


2.1.3雙總體均值差的估計(jì)


2.1.4雙總體比例差的估計(jì)


2.2假設(shè)檢驗(yàn)


2.2.1基本概念


2.2.2兩類錯(cuò)誤


2.2.3均值檢驗(yàn)


2.3極大似然估計(jì)


2.3.1極大似然法的基本原理


2.3.2求極大似然估計(jì)的方法


2.3.3極大似然估計(jì)應(yīng)用舉例


第3章采樣方法


3.1蒙特卡洛法求定積分


3.1.1無(wú)意識(shí)統(tǒng)計(jì)學(xué)家法則


3.1.2投點(diǎn)法


3.1.3期望法


3.2蒙特卡洛采樣


3.2.1逆采樣


3.2.2博克斯穆勒變換


3.2.3拒絕采樣與自適應(yīng)拒絕采樣


3.3矩陣的極限與馬爾科夫鏈


3.4查普曼柯?tīng)柲缏宸虻仁?/p>


3.5馬爾科夫鏈蒙特卡洛


3.5.1重要性采樣


3.5.2馬爾科夫鏈蒙特卡洛的基本概念


3.5.3MetropolisHastings算法


3.5.4Gibbs采樣


第4章非參數(shù)檢驗(yàn)方法


4.1列聯(lián)分析


4.1.1類別數(shù)據(jù)與列聯(lián)表


4.1.2皮爾遜(Pearson)的卡方檢驗(yàn)


4.1.3列聯(lián)分析應(yīng)用條件


4.1.4費(fèi)希爾(Fisher)的確切檢驗(yàn)


4.2符號(hào)檢驗(yàn)


4.3威爾科克森符號(hào)秩檢驗(yàn)


4.4威爾科克森的秩和檢驗(yàn)


4.5克魯斯卡爾沃利斯檢驗(yàn)


第5章一元線性回歸


5.1回歸分析的性質(zhì)


5.2回歸的基本概念


5.2.1總體的回歸函數(shù)


5.2.2隨機(jī)干擾的意義


5.2.3樣本的回歸函數(shù)


5.3回歸模型的估計(jì)


5.3.1普通最小二乘法原理


5.3.2一元線性回歸的應(yīng)用


5.3.3經(jīng)典模型的基本假定


5.3.4總體方差的無(wú)偏估計(jì)


5.3.5估計(jì)參數(shù)的概率分布


5.4正態(tài)條件下的模型檢驗(yàn)


5.4.1擬合優(yōu)度的檢驗(yàn)


5.4.2整體性假定檢驗(yàn)


5.4.3單個(gè)參數(shù)的檢驗(yàn)


5.5一元線性回歸模型預(yù)測(cè)


5.5.1點(diǎn)預(yù)測(cè)


5.5.2區(qū)間預(yù)測(cè)


第6章多元線性回歸


6.1多元線性回歸模型


6.2多元回歸模型估計(jì)


6.2.1最小二乘估計(jì)量


6.2.2多元回歸的實(shí)例


6.2.3總體參數(shù)估計(jì)量


6.3從線性代數(shù)角度理解最小二乘


6.3.1最小二乘問(wèn)題的通解


6.3.2最小二乘問(wèn)題的計(jì)算


6.4多元回歸模型檢驗(yàn)


6.4.1線性回歸的顯著性


6.4.2回歸系數(shù)的顯著性


6.5多元線性回歸模型預(yù)測(cè)


6.6格蘭杰因果關(guān)系檢驗(yàn)


第7章線性回歸進(jìn)階


7.1更多回歸模型函數(shù)形式


7.1.1雙對(duì)數(shù)模型以及生產(chǎn)函數(shù)


7.1.2倒數(shù)模型與菲利普斯曲線


7.1.3多項(xiàng)式回歸模型及其分析


7.2回歸模型的評(píng)估與選擇


7.2.1嵌套模型選擇


7.2.2赤池信息準(zhǔn)則


7.2.3逐步回歸方法


7.3現(xiàn)代回歸方法的新進(jìn)展


7.3.1多重共線性


7.3.2嶺回歸


7.3.3從嶺回歸到LASSO


7.3.4正則化


第8章方差分析方法


8.1方差分析的基本概念


8.2單因素方差分析方法


8.2.1基本原理


8.2.2分析步驟


8.2.3強(qiáng)度測(cè)量


8.3雙因素方差分析方法


8.3.1無(wú)交互作用的分析


8.3.2有交互作用的分析


8.4多重比較


8.4.1多重t檢驗(yàn)


8.4.2Dunnett檢驗(yàn)


8.4.3Tukey的HSD檢驗(yàn)


8.4.4NewmanKeuls檢驗(yàn)


8.5方差齊性的檢驗(yàn)方法


8.5.1Bartlett檢驗(yàn)法


8.5.2Levene檢驗(yàn)法


第9章邏輯回歸與最大熵模型


9.1邏輯回歸


9.2牛頓法解Logistic回歸


9.3多元邏輯回歸


9.4最大熵模型


9.4.1最大熵原理


9.4.2約束條件


9.4.3模型推導(dǎo)


9.4.4極大似然估計(jì)


第10章聚類分析


10.1聚類的概念


10.2K均值算法


10.2.1距離度量


10.2.2算法描述


10.2.3數(shù)據(jù)分析實(shí)例


10.2.4圖像處理應(yīng)用舉例


10.3最大期望算法


10.3.1算法原理


10.3.2收斂探討


10.4高斯混合模型


10.4.1模型推導(dǎo)


10.4.2應(yīng)用實(shí)例


10.5密度聚類與DBSCAN算法


第11章支持向量機(jī)


11.1線性可分的支持向量機(jī)


11.1.1函數(shù)距離與幾何距離


11.1.2最大間隔分類器


11.1.3拉格朗日乘數(shù)法


11.1.4對(duì)偶問(wèn)題的求解


11.2松弛因子與軟間隔模型


11.3非線性支持向量機(jī)方法


11.3.1從更高維度上分類


11.3.2非線性核函數(shù)方法


11.3.3機(jī)器學(xué)習(xí)中的核方法


11.3.4默瑟定理


11.4對(duì)數(shù)據(jù)進(jìn)行分類的實(shí)踐


11.4.1基本建模函數(shù)


11.4.2分析建模結(jié)果


第12章貝葉斯推斷


12.1貝葉斯公式與邊緣分布


12.2貝葉斯推斷中的重要概念


12.2.1先驗(yàn)概率與后驗(yàn)概率


12.2.2共軛分布


12.3樸素貝葉斯分類器


12.4貝葉斯網(wǎng)絡(luò)


12.4.1基本結(jié)構(gòu)單元


12.4.2模型推理


12.5貝葉斯推斷的應(yīng)用舉例


第13章降維與流形學(xué)習(xí)


13.1主成分分析(PCA)


13.2奇異值分解(SVD)


13.2.1一個(gè)基本的認(rèn)識(shí)


13.2.2為什么可以做SVD


13.2.3SVD與PCA的關(guān)系


13.2.4應(yīng)用舉例與矩陣的偽逆


13.3多維標(biāo)度法(MDS)


第14章決策樹(shù)


14.1決策樹(shù)基礎(chǔ)


14.1.1Hunt算法


14.1.2基尼測(cè)度與劃分


14.1.3信息熵與信息增益


14.1.4分類誤差


14.2決策樹(shù)進(jìn)階


14.2.1ID3算法


14.2.2C4.5算法


14.3分類回歸樹(shù)


14.4決策樹(shù)剪枝


14.4.1沒(méi)有免費(fèi)午餐原理


14.4.2剪枝方法


14.5分類器的評(píng)估


第15章人工神經(jīng)網(wǎng)絡(luò)


15.1從感知機(jī)開(kāi)始


15.1.1感知機(jī)模型


15.1.2感知機(jī)學(xué)習(xí)


15.1.3多層感知機(jī)


15.2基本神經(jīng)網(wǎng)絡(luò)


15.2.1神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)


15.2.2符號(hào)標(biāo)記說(shuō)明


15.2.3后向傳播算法


15.3神經(jīng)網(wǎng)絡(luò)實(shí)踐


15.3.1核心函數(shù)介紹


15.3.2應(yīng)用分析實(shí)踐


附錄A必不可少的數(shù)學(xué)基礎(chǔ)


A.1泰勒公式


A.2海塞矩陣


A.3凸函數(shù)與詹森不等式


A.3.1凸函數(shù)的概念


A.3.2詹森不等式及其證明


A.3.3詹森不等式的應(yīng)用


A.4泛函與抽象空間


A.4.1線性空間


A.4.2距離空間


A.4.3賦范空間


A.4.4巴拿赫空間


A.4.5內(nèi)積空間


A.4.6希爾伯特空間


A.5從泛函到變分法


A.5.1理解泛函的概念


A.5.2關(guān)于變分的概念


A.5.3變分法的基本方程


A.5.4哈密爾頓原理


A.5.5等式約束下的變分


參考文獻(xiàn)


本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)