注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)網(wǎng)絡(luò)與數(shù)據(jù)通信網(wǎng)絡(luò)服務(wù)Python機(jī)器學(xué)習(xí)核心算法編程實(shí)例

Python機(jī)器學(xué)習(xí)核心算法編程實(shí)例

Python機(jī)器學(xué)習(xí)核心算法編程實(shí)例

定 價(jià):¥78.00

作 者: 丁偉雄
出版社: 電子工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

ISBN: 9787121382475 出版時(shí)間: 2020-01-01 包裝:
開本: 其他 頁數(shù): 364 字?jǐn)?shù):  

內(nèi)容簡介

  在大數(shù)據(jù)時(shí)代背景下,機(jī)器學(xué)習(xí)是人工智能研究領(lǐng)域中一個(gè)極其重要的方向,本書是一本機(jī)器學(xué)習(xí)方面的入門讀物,注重理論與實(shí)踐相結(jié)合,書中以Python 3.6.5為編寫平臺,共分13章,主要包括機(jī)器學(xué)習(xí)緒論、線性模型、樹回歸、K-means聚類算法、樸素貝葉斯、數(shù)據(jù)降維、支持向量機(jī)、隨機(jī)森林、人工神經(jīng)網(wǎng)絡(luò)、協(xié)同過濾算法、基于矩陣分解的推薦算法、集成學(xué)習(xí)、數(shù)據(jù)預(yù)處理等內(nèi)容。通過本書的學(xué)習(xí),除使讀者輕松掌握Python外,還能利用Python簡單、快捷地解決各種機(jī)器學(xué)習(xí)問題。本書適合Python初學(xué)者,也適合研究Python的廣大科研人員、學(xué)者、工程技術(shù)人員。

作者簡介

  丁偉雄(1971年生),男,北京航空航天大學(xué)畢業(yè),佛山科學(xué)技術(shù)學(xué)院創(chuàng)業(yè)學(xué)院副院長,不錯(cuò)實(shí)驗(yàn)師。研究方向:計(jì)算機(jī)應(yīng)用技術(shù)。編寫的圖書實(shí)例豐富,實(shí)用性強(qiáng)。

圖書目錄

目 錄章  機(jī)器學(xué)習(xí)緒論11.1  機(jī)器學(xué)習(xí)的定義11.1.1  緒論11.1.2  機(jī)器學(xué)習(xí)發(fā)展歷程21.1.3  機(jī)器學(xué)習(xí)算法的分類31.2  學(xué)習(xí)算法41.2.1  監(jiān)督學(xué)習(xí)41.2.2  無監(jiān)督學(xué)習(xí)51.3  機(jī)器學(xué)習(xí)應(yīng)用程序的步驟61.4  Python語言71.4.1  Python的風(fēng)格71.4.2  Python的優(yōu)勢71.4.3  Python語言的缺點(diǎn)81.5  Python的環(huán)境搭建91.5.1  安裝101.5.2  使用pip安裝第三方庫131.6  NumPy函數(shù)庫基礎(chǔ)141.7  Python的基礎(chǔ)知識161.7.1  數(shù)和表達(dá)式161.7.2  Python的標(biāo)識符181.7.3  Python的保留字符191.7.4  行和縮進(jìn)191.7.5  多行語句201.7.6  Python引號201.7.7  Python空行201.7.8  同一行顯示多條語句201.7.9  Print輸出21第2章  線性模型222.1  一般線性回歸232.1.1  線性回歸公式表示法232.1.2  線性回歸的Python實(shí)現(xiàn)252.2  局部加權(quán)線性回歸272.3  廣義線性模型302.4  邏輯回歸分析362.5  牛頓法402.5.1  基本牛頓法的原理402.5.2  基本牛頓法的流程402.5.3  全局牛頓法402.5.4  Armijo搜索422.5.5  全局牛頓法求解線性回歸模型422.6  縮減法432.6.1  嶺回歸442.6.2  lasso回歸462.7  利用線性回歸進(jìn)行預(yù)測472.7.1  訓(xùn)練線性回歸模型472.7.2  對新數(shù)據(jù)的預(yù)測49第3章  樹回歸513.1  構(gòu)建決策樹的準(zhǔn)備工作523.1.1  特征選擇523.1.2  決策樹的生成和修剪603.2  Matplotlib注釋繪制樹形圖603.3  使用決策樹執(zhí)行分類673.4  決策樹的存儲713.5  Sklearn使用決策樹預(yù)測隱形眼鏡類型733.5.1  實(shí)戰(zhàn)背景733.5.2  使用Sklearn構(gòu)建決策樹733.6  復(fù)雜數(shù)據(jù)的局部性建模803.7  連續(xù)型和離散型特征的樹構(gòu)建813.8  分類回歸樹823.8.1  構(gòu)建樹833.8.2  剪枝853.8.3  模型樹873.8.4  分類回歸的Python實(shí)現(xiàn)88第4章 K-means聚類算法924.1  K-means聚類算法的概述924.2  相似性的度量934.2.1  閔可夫斯基距離934.2.2  曼哈頓距離934.2.3  歐氏距離934.3  K-means聚類算法的原理944.3.1  K-means聚類算法的步驟944.3.2  K-means算法與矩陣分解954.3.3  K-means聚類算法的實(shí)現(xiàn)964.4  K-近鄰算法1044.5  各種聚類算法1074.5.1  劃分聚類法1074.5.2  層次聚類法1084.5.3  密度聚類法1114.5.4  譜聚類法1164.5.5  Birch聚類1194.5.6  混合高斯模型1214.6  K-means++算法1224.6.1  K-means算法存在的問題1224.6.2  K-means++算法的思路123第5章  樸素貝葉斯1275.1  樸素貝葉斯理論1275.1.1  貝葉斯決策理論1275.1.2  條件概率1285.1.3  全概率公式1285.1.4  貝葉斯推斷1295.1.5  樸素貝葉斯推斷1305.2  樸素貝葉斯算法1315.3  樸素貝葉斯算法的優(yōu)缺點(diǎn)140第6章  數(shù)據(jù)降維1416.1  維度災(zāi)難與降維1416.2  高維數(shù)據(jù)降維的方法1416.2.1  線性降維1426.2.2  非線性降維1466.2.3  SVD降維1536.2.4  流形學(xué)習(xí)降維1596.2.5  多維縮放降維166第7章  支持向量機(jī)1707.1  支持向量機(jī)概述1707.2  分類間隔1717.2.1  函數(shù)間距1727.2.2  幾何間距1737.3  拉格朗日乘子1757.3.1  拉格朗日對偶性1757.3.2  優(yōu)化間隔分類器1767.4  核函數(shù)1787.4.1  核函數(shù)的選擇1807.4.2  松弛向量與軟間隔優(yōu)選化1807.5  SOM算法1817.5.1  坐標(biāo)上升算法1827.5.2  SOM1827.6  SVM的優(yōu)缺點(diǎn)1857.7  SVM的Python實(shí)現(xiàn)185第8章  隨機(jī)森林1928.1  什么是隨機(jī)森林1928.2  集成學(xué)習(xí)1928.2.1  集成學(xué)習(xí)的思想1938.2.2  集成學(xué)習(xí)中的典型方法1938.3  Stacking1948.3.1  Stacking的基本思想1948.3.2  Stacking的實(shí)現(xiàn)1958.4  隨機(jī)森林算法1988.4.1  隨機(jī)森林的特點(diǎn)1988.4.2  隨機(jī)森林算法流程1998.5  隨機(jī)森林算法實(shí)踐2018.6  美國人口普查年收入50k分類2078.6.1  數(shù)據(jù)預(yù)處理2088.6.2  模型訓(xùn)練及驗(yàn)證212第9章  人工神經(jīng)網(wǎng)絡(luò)2179.1  感知機(jī)模型2179.1.1  感知機(jī)的定義2179.1.2  感知機(jī)的學(xué)習(xí)策略2189.1.3  感知機(jī)學(xué)習(xí)算法2189.1.4  感知機(jī)的Python實(shí)現(xiàn)2269.2  從感知機(jī)到神經(jīng)網(wǎng)絡(luò)2369.3  多層前饋神經(jīng)網(wǎng)絡(luò)2389.3.1  BP網(wǎng)絡(luò)算法2419.3.2  BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程2449.3.3  BP神經(jīng)網(wǎng)絡(luò)中參數(shù)的設(shè)置2499.4  神經(jīng)網(wǎng)絡(luò)的Python實(shí)現(xiàn)2530章  協(xié)同過濾算法27210.1  協(xié)同過濾的核心27210.2  協(xié)同過濾的分類27210.3  相似性的度量方法27310.3.1  歐氏距離27310.3.2  皮爾遜相關(guān)系數(shù)27310.3.3  余弦相似度27410.3.4  用Python實(shí)現(xiàn)余弦相似度的計(jì)算27410.4  基于用戶的協(xié)同過濾算法27510.4.1  基于物品的協(xié)同過濾算法27510.4.2  基于矩陣分解的協(xié)同過濾算法27610.4.3  Python實(shí)現(xiàn)27610.5  基于項(xiàng)的協(xié)同過濾算法28010.6  利用協(xié)同過濾算法進(jìn)行推薦28110.6.1  導(dǎo)入用戶-商品數(shù)據(jù)28110.6.2  利用基于用戶的協(xié)同過濾算法進(jìn)行推薦28210.6.3  利用基于項(xiàng)的協(xié)同過濾算法進(jìn)行推薦2831章  基于矩陣分解的推薦算法28511.1  矩陣分解28511.2  利用矩陣分解進(jìn)行預(yù)測28611.2.1  損失函數(shù)28611.2.2  損失函數(shù)的求解28611.2.3  加入正則項(xiàng)的損失函數(shù)即求解方法28611.2.4  預(yù)測28811.2.5  程序?qū)崿F(xiàn)28911.3  非負(fù)矩陣分解29111.3.1 非負(fù)矩陣分解的形式定義29111.3.2  損失函數(shù)29111.3.3  優(yōu)化問題的求解29211.3.4  利用乘法規(guī)則進(jìn)行分解和預(yù)測29411.4  基于矩陣分解的推薦方法29511.4.1  LFM法29511.4.2  SVD法29811.4.3  SVD++法3002章  集成學(xué)習(xí)30412.1  集成學(xué)習(xí)的原理及誤差30412.2  集成學(xué)習(xí)方法30512.2.1  Boosting算法30512.2.2  AdaBoost算法30512.2.3  AdaBoost與加法模型30912.2.4  提升樹31012.2.5  Bagging算法31312.2.6  誤差-分歧分解31412.2.7  多樣性增強(qiáng)31512.2.8  Stacking算法31612.3  Python實(shí)現(xiàn)3173章  數(shù)據(jù)預(yù)處理32213.1  數(shù)據(jù)預(yù)處理概述32213.1.1  為什么要對數(shù)據(jù)進(jìn)行預(yù)處理32213.1.2  數(shù)據(jù)預(yù)處理的主要任務(wù)32313.2  去除唯一屬性32313.3  處理缺失值32413.3.1  直接使用32413.3.2  刪除特征32413.3.3  缺失值補(bǔ)全32413.3.4  數(shù)據(jù)清理32813.3.5  特征編碼33013.3.6  數(shù)據(jù)標(biāo)準(zhǔn)化33113.3.7  正則化33213.3.8  特征選擇33313.3.9  稀疏表示和字典學(xué)習(xí)33513.4  Python實(shí)現(xiàn)337參考文獻(xiàn)352

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號