注冊 | 登錄讀書好,好讀書,讀好書!
讀書網-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網絡人工智能PyTorch高級機器學習實戰(zhàn) ChatGPT背后的邏輯

PyTorch高級機器學習實戰(zhàn) ChatGPT背后的邏輯

PyTorch高級機器學習實戰(zhàn) ChatGPT背后的邏輯

定 價:¥109.00

作 者: 王宇龍
出版社: 機械工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787111719960 出版時間: 2023-03-01 包裝: 平裝
開本: 16開 頁數(shù): 字數(shù):  

內容簡介

  本書講解了經典的高級機器學習算法原理與知識,包括常見的監(jiān)督學習、無監(jiān)督學習、概率圖模型、核方法、深度神經網絡,以及強化學習等內容,同時更強調動手實踐。所有算法均利用PyTorch計算框架進行實現(xiàn),并且在各章節(jié)配備實戰(zhàn)環(huán)節(jié),內容涵蓋點擊率預估、異常檢測、概率圖模型變分推斷、高斯過程超參數(shù)優(yōu)化、深度強化學習智能體訓練等內容。 本書附贈所有案例的源代碼及各類學習資料來源,適合具有一定編程基礎的人工智能愛好者學習,也是相關從業(yè)者和研究人員的學習指南。

作者簡介

  王宇龍,清華大學計算機博士,大型互聯(lián)網公司算法專家,在國際學術會議及期刊發(fā)表過多篇論文。曾出版書籍《PyTorch深度學習入門與實戰(zhàn)》,知乎“機器學習”話題優(yōu)秀回答者(@Young)。

圖書目錄

前言
第1章 機器學習概述/
1.1 機器學習簡介/
1.1.1 機器學習的含義/
1.1.2 機器學習概述/
1.1.3 不同類型的機器學習算法/
1.2 數(shù)據(jù)處理/
1.2.1 數(shù)據(jù)特征分類及表示/
1.2.2 數(shù)據(jù)預處理/
1.2.3 數(shù)據(jù)缺失處理/
1.2.4 特征衍生和交叉/
1.2.5 特征篩選/
1.3 衡量標準/
1.3.1 模型評估指標/
1.3.2 數(shù)據(jù)集劃分/
1.3.3 超參數(shù)優(yōu)化/
1.4 優(yōu)化目標/
1.4.1 損失函數(shù)/
1.4.2 梯度下降優(yōu)化/
1.4.3 受約束優(yōu)化:Lagrange函數(shù)/
1.5 實戰(zhàn):簡單模型實現(xiàn)Titanic乘客生存概率預測/
1.5.1 問題描述與數(shù)據(jù)特征/
1.5.2 簡單屬性分類模型實現(xiàn)預測/
第2章 PyTorch基本操作介紹/
2.1 PyTorch簡介/
2.2 核心概念:Tensor/
2.2.1 Tensor基本操作/
2.2.2 基本數(shù)學運算/
2.2.3 索引分片操作/
2.2.4 類成員方法/
2.3 自動求導(Autograd)/
2.3.1 可微分張量/
2.3.2 Function:實現(xiàn)自動微分的基礎/
2.4 神經網絡核心模塊:torch.nn/
2.4.1 nn.Module概述/
2.4.2 函數(shù)式操作nn.functional/
2.5 優(yōu)化器(optimizer)/
2.5.1 optimizer概述/
2.5.2 學習率調節(jié)/
2.5.3 經典優(yōu)化器介紹/
2.6 數(shù)據(jù)加載/
2.6.1 Dataset與DataLoader介紹/
2.6.2 預處理變換torchvision.transforms/
2.7 高級操作/
2.7.1 GPU運算/
2.7.2 利用C++實現(xiàn)自定義算子/
2.8 實戰(zhàn):Wide & Deep模型實現(xiàn)Criteo點擊率預估/
2.8.1 問題定義與數(shù)據(jù)特征/
2.8.2 Wide & Deep模型介紹/
2.8.3 完整實驗流程/
第3章 監(jiān)督學習/
3.1 線性回歸(Linear Regression)/
3.1.1 小二乘法(Least Square Method)/
3.1.2 嶺回歸(Ridge Regression)/
3.1.3 貝葉斯線性回歸(Bayesian Linear Regression)/
3.2 邏輯回歸(Logistic Regression)/
3.2.1 二分類邏輯回歸/
3.2.2 多分類Softmax回歸/
3.2.3 貝葉斯邏輯回歸(Bayesian Logistic Regression)/
3.3 支持向量機(Support Vector Machine,SVM)/
3.3.1 線性可分下SVM的定義/
3.3.2 利用隨機梯度下降求解/
3.3.3 凸優(yōu)化簡介/
3.3.4 SVM對偶問題表示/
3.3.5 梯度下降法求解對偶問題/
3.3.6 從Hard SVM擴展到Soft SVM/
3.3.7 支持向量回歸(Support Vector Regression,SVR)/
3.3.8 帶有松弛變量的SVR及對偶優(yōu)化方法/
3.4 決策樹模型(Decision Tree)/
3.4.1 構建單個樹模型/
3.4.2 集成學習(Ensemble Learning)/
3.5 K近鄰算法(K Nearest Neighbors,KNN)/
3.6 實戰(zhàn):復雜模型實現(xiàn)Titanic旅客生存概率預測/
3.6.1 Titanic數(shù)據(jù)集特征處理/
3.6.2 多種模型預測性能對比/
第4章 無監(jiān)督學習/
4.1 聚類方法(Clustering Method)/
4.1.1 KMeans聚類/
4.1.2 譜聚類(Spectral Clustering)/
4.1.3 聚合聚類(Agglomerative Clustering)/
4.2 密度估計(Density Estimation)/
4.2.1 高斯混合模型(Gaussian Mixture Model)/
4.2.2 期望大化算法(Expectation Maximization,EM)/
4.3 降維與嵌入(Dimension Reduction & Embedding)/
4.3.1 主成分分析(Principal Component Analysis,PCA)/
4.3.2 局部線性嵌入(Locally Linear Embedding,LLE)/
4.3.3 隨機鄰居嵌入算法(tSNE)/
4.4 實戰(zhàn):無監(jiān)督方法實現(xiàn)異常檢測(Anomaly Detection)/
4.4.1 異常檢測問題與應用/
4.4.2 實現(xiàn)基于PCA的異常檢測方法/
4.4.3 實現(xiàn)基于Mahalanobis距離的異常檢測方法/
4.4.4 實現(xiàn)基于聚類的局部異常因子檢測方法/
第5章 PyTorch高級機器學習實戰(zhàn)概率圖模型/
5.1 有向圖:貝葉斯網絡(Bayesian Network)/
5.1.1 有向圖的概率分解/
5.1.2 條件獨立性(Conditional Independence)/
5.2 無向圖:馬爾可夫隨機場(Markov Random Field,MRF)/
5.2.1 無向圖的概率分解/
5.2.2 具體應用:圖像去噪(Image Denoising)/
5.3 隱馬爾可夫模型(Hidden Markov Model,HMM)/
5.3.1 隱馬爾可夫模型介紹/
5.3.2 前向后向算法(ForwardBackward Algorithm)/
5.3.3 放縮提升運算穩(wěn)定性/
5.3.4 代碼實現(xiàn)/
5.4 變分推斷(Variational Inference,VI)/
5.4.1 后驗分布優(yōu)化與ELBO/
5.4.2 黑盒變分推斷算法(BlackBox Variational Inference,BBVI)/
5.5 蒙特卡羅采樣(Monte Carlo Sampling)/
5.5.1 拒絕采樣(Rejection Sampling)/
5.5.2 馬爾可夫鏈蒙特卡羅(Markov Chain Monte Carlo)/
5.5.3 吉布斯采樣(Gibbs Sampling)/
5.5.4 哈密頓蒙特卡羅采樣(Hamiltonian Monte Carlo,HMC)/
5.6 實戰(zhàn):變分高斯混合模型(Variational Gaussian Mixture Model)/
5.6.1 擴展GMM:貝葉斯高斯混合模型(Bayesian Gaussian Mixture Model)/
5.6.2 變分推斷近似/
5.6.3 代碼實現(xiàn)/
第6章 核方法/
6.1 核函數(shù)及核技巧/
6.2核化KMeans算法(Kernel KMeans)/
6.2.1 KMeans算法回顧/
6.2.2 具體實現(xiàn)/
6.3 核化支持向量機(Kernel SVM)/
6.3.1 SVM對偶問題及核函數(shù)表示/
6.3.2 核化支持向量回歸(Kernel SVR)/
6.4 核化主成分分析 (Kernel PCA,KPCA)/
6.4.1 回顧PCA及核化表示/
6.4.2 核中心化技巧及實現(xiàn)/
6.5 高斯過程(Gaussian Process,GP)/
6.5.1 高斯過程定義及基本性質/
6.5.2 核函數(shù)參數(shù)選取優(yōu)化/
6.6 實戰(zhàn):利用高斯過程進行超參數(shù)優(yōu)化/
6.6.1 超參數(shù)優(yōu)化(Hyperparameter Optimization)/
6.6.2 具體實現(xiàn)/
第7章 深度神經網絡/
7.1 神經網絡(Neural Network)/
7.1.1 基本算子操作/
7.1.2 常見網絡結構/
7.1.3 網絡訓練/
7.2 變分自編碼器(Variational AutoEncoder,VAE)/
7.2.1 多種自編碼器介紹/
7.2.2 變分自編碼器/
7.3 深度生成模型(Deep Generative Model,DGM)/
7.3.1 受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)/
7.3.2 生成式對抗網絡(Generative Adversarial Network,GAN)/
7.4 實戰(zhàn):利用CycleGAN進行圖片風格轉換/
7.4.1 CycleGAN模型介紹/
7.4.2 模型實現(xiàn)/
第8章 強化學習/
8.1 經典強化學習介紹/
8.1.1 基本概念介紹/
8.1.2 強化學習環(huán)境OpenAI Gym/
8.2 馬爾可夫決策過程(Markov Decision Process,MDP)/
8.2.1 MDP定義及貝爾曼優(yōu)方程/
8.2.2 策略迭代(Policy Iteration)和價值迭代(Value Iteration)/
8.2.3 蒙特卡羅采樣學習(Monte Carlo Learning)/
8.2.4 時序差分學習(Temporal Difference Learning,TDLearning)/
8.3 基于Q價值函數(shù)的深度強化學習/
8.3.1 深度Q網絡(Deep QNetwork,DQN)/
8.3.2 其他DQN改進模型/
8.4 基于策略優(yōu)化的深度強化學習/
8.4.1 策略梯度算法(Policy Gradient)/
8.4.2 Advantage ActorCritic(A2C)算法/
8.4.3 近鄰策略優(yōu)化法(Proximal Policy Optimization,PPO)/
8.4.4 深度確定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)/
8.4.5 Soft Actor Critic(SAC)算法/
8.5 實戰(zhàn):在Atari游戲環(huán)境中進行深度強化學習評測/
8.5.1 Atari游戲環(huán)境及預處理方式/
8.5.2 多種深度強化學習性能比較/
參考文獻/

本目錄推薦

掃描二維碼
Copyright ? 讀書網 m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網安備 42010302001612號