注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計Python監(jiān)督學(xué)習(xí)

Python監(jiān)督學(xué)習(xí)

Python監(jiān)督學(xué)習(xí)

定 價:¥68.00

作 者: [愛爾蘭] 瓦伊巴夫·韋爾丹(Vaibhav Verdhan) 著,梁平,譚穎 譯
出版社: 清華大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

ISBN: 9787302594659 出版時間: 2022-03-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  主要內(nèi)容 ● 綜述使用Python完成監(jiān)督學(xué)習(xí)的基本構(gòu)造塊和概念 ● 為結(jié)構(gòu)化數(shù)據(jù)以及文本和圖像開發(fā)監(jiān)督學(xué)習(xí)的解決方案 ● 解決過擬合、特征工程、數(shù)據(jù)清理和交叉驗證等問題,構(gòu)建最佳擬合模型 ● 了解從業(yè)務(wù)問題定義到模型部署和模型維護(hù)的端到端模型開發(fā)周期 ● 使用Python創(chuàng)建監(jiān)督學(xué)習(xí)模型時,避免常見的陷阱并遵循最佳實踐

作者簡介

  瓦伊巴夫·韋爾丹,Vaibhav Verdhan在數(shù)據(jù)科學(xué)、機(jī)器學(xué)習(xí)和人工智能方面擁有12年以上的經(jīng)驗。他是一位具有工程背景的工商管理碩士,也是一位善于實踐的技術(shù)專家,具有敏銳的透徹理解和分析數(shù)據(jù)的能力。他曾在跨地理區(qū)域和零售、電信、制造、能源和公用事業(yè)領(lǐng)域引領(lǐng)多個機(jī)器學(xué)習(xí)和人工智能項目。目前和家人居住在愛爾蘭,擔(dān)任首席數(shù)據(jù)科學(xué)家。

圖書目錄

第1章 監(jiān)督學(xué)習(xí)簡介
1.1 什么是機(jī)器學(xué)習(xí)
1.1.1 數(shù)據(jù)分析、數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)和人工智能之間的關(guān)系
1.1.2 數(shù)據(jù)、數(shù)據(jù)類型和數(shù)據(jù)源
1.2 機(jī)器學(xué)習(xí)與軟件工程的差異
1.3 機(jī)器學(xué)習(xí)的統(tǒng)計和數(shù)學(xué)概念
1.4 監(jiān)督學(xué)習(xí)算法
1.4.1 回歸與分類問題
1.4.2 監(jiān)督學(xué)習(xí)算法步驟
1.5 無監(jiān)督學(xué)習(xí)算法
1.5.1 聚類分析
1.5.2 PCA
1.6 半監(jiān)督學(xué)習(xí)算法
1.7 技術(shù)棧
1.8 機(jī)器學(xué)習(xí)的普及性
1.9 機(jī)器學(xué)習(xí)使用案例
1.10 小結(jié)
第2章 回歸分析監(jiān)督學(xué)習(xí)
2.1 所需技術(shù)工具包
2.2 回歸分析及案例
2.3 什么是線性回歸
2.4 度量回歸問題的有效性
2.4.1 案例1:創(chuàng)建簡單線性回歸
2.4.2 案例2:住宅數(shù)據(jù)集簡單線性回歸
2.4.3 案例3:住宅數(shù)據(jù)集多元線性回歸
2.5 非線性回歸分析
2.6 識別非線性關(guān)系
2.7 回歸模型面臨的挑戰(zhàn)
2.8 回歸的基于樹方法
2.9 案例分析:使用決策樹解決油耗問題
2.10 回歸的集成方法
2.11 案例分析:使用隨機(jī)森林解決油耗問題
2.12 基于樹方法的特征選擇
2.13 小結(jié)
第3章 分類問題監(jiān)督學(xué)習(xí)
3.1 所需技術(shù)工具包
3.2 假設(shè)檢驗及p值
3.3 分類算法
3.4 評估解決方案準(zhǔn)確度
3.5 案例分析:信用風(fēng)險
3.6 分類的樸素貝葉斯方法
3.7 案例分析:人口普查數(shù)據(jù)的收入預(yù)測
3.8 分類的k最近鄰方法
3.9 案例分析:k最近鄰
3.9.1 數(shù)據(jù)集
3.9.2 業(yè)務(wù)目標(biāo)
3.10 分類的基于樹算法
3.11 決策樹算法類型
3.12 小結(jié)
第4章 監(jiān)督學(xué)習(xí)高級算法
4.1 所需技術(shù)工具
4.2 提升算法
4.3 支持向量機(jī)(SVM)
4.3.1 二維空間的SVM
4.3.2 KSVM
4.3.3 使用SVM的案例分析
4.4 非結(jié)構(gòu)化數(shù)據(jù)的監(jiān)督學(xué)習(xí)算法
4.5 文本數(shù)據(jù)
4.5.1 文本數(shù)據(jù)案例
4.5.2 文本數(shù)據(jù)面臨的挑戰(zhàn)
4.5.3 文本分析建模過程
4.5.4 文本數(shù)據(jù)提取及管理
4.5.5 文本數(shù)據(jù)預(yù)處理
4.5.6 從文本數(shù)據(jù)提取特征
4.6 案例分析:采用自然語言處理的客戶投訴分析
4.7 案例分析:采用詞嵌入的客戶投訴分析
4.8 圖像數(shù)據(jù)
4.8.1 圖像數(shù)據(jù)案例
4.8.2 圖像數(shù)據(jù)面臨的挑戰(zhàn)
4.8.3 圖像數(shù)據(jù)管理過程
4.8.4 圖像數(shù)據(jù)建模過程
4.9 深度學(xué)習(xí)基礎(chǔ)
4.9.1 人工神經(jīng)網(wǎng)絡(luò)
4.9.2 激活函數(shù)
4.9.3 神經(jīng)網(wǎng)絡(luò)的損失函數(shù)
4.9.4 神經(jīng)網(wǎng)絡(luò)優(yōu)化
4.9.5 神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程
4.10 案例分析1:在結(jié)構(gòu)化數(shù)據(jù)上建立分類模型
4.11 案例分析2:圖像分類模型
4.12 小結(jié)
第5章 端到端模型開發(fā)
5.1 所需技術(shù)工具
5.2 機(jī)器學(xué)習(xí)模型開發(fā)
5.3 步驟1:定義業(yè)務(wù)問題
5.4 步驟2:數(shù)據(jù)發(fā)現(xiàn)階段
5.5 步驟3:數(shù)據(jù)清理和準(zhǔn)備
5.5.1 數(shù)據(jù)集中的重復(fù)值
5.5.2 數(shù)據(jù)集的分類變量處理
5.5.3 數(shù)據(jù)集中存在的缺失值
5.6 數(shù)據(jù)集中的不平衡
5.7 數(shù)據(jù)集中的離群值
5.8 數(shù)據(jù)集中其他常見問題
5.9 步驟4:EDA
5.10 步驟5:機(jī)器學(xué)習(xí)模型構(gòu)建
5.10.1 數(shù)據(jù)訓(xùn)練/測試集分割
5.10.2 為分類算法找到最佳閾值
5.10.3 過擬合與欠擬合問題
5.10.4 關(guān)鍵利益相關(guān)人討論并迭代
5.10.5 提交最終模型
5.11 步驟6:模型部署
5.12 步驟7:文檔化
5.13 步驟8:模型更新和維護(hù)
5.14 小結(jié)

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號