注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術工業(yè)技術自動化技術、計算技術人工智能的矩陣代數(shù)方法:應用篇

人工智能的矩陣代數(shù)方法:應用篇

人工智能的矩陣代數(shù)方法:應用篇

定 價:¥179.00

作 者: 張賢達 著,張遠聲 校
出版社: 高等教育出版社
叢編項:
標 簽: 暫缺

ISBN: 9787040558500 出版時間: 2021-11-01 包裝: 精裝
開本: 16開 頁數(shù): 548 字數(shù):  

內容簡介

  人工智能的發(fā)展需要對所解決問題的深入數(shù)學理解,矩陣代數(shù)正是一種的基本數(shù)學工具,在人工智能學科的研究中具有根本性的意義。本書的目的正是為人工智能的研究和實踐提供堅實的矩陣代數(shù)理論基礎。全書共9章,分矩陣代數(shù)導論、應用兩部分講述矩陣代數(shù)方法在人工智能中的應用。第一部分《矩陣代數(shù)導論》包括第1–5章,提供矩陣代數(shù)的基礎理論;第二部分《人工智能的矩陣代數(shù)應用》包括第6–9章,詳細闡述在機器學習、神經(jīng)網(wǎng)絡、支持向量機和進化計算4個人工智能領域中矩陣代數(shù)方法的應用,并總結有80余種人工智能算法,第二部分是全書的重點所在。本書內容全面,實例豐富,可供電子信息技術、計算機、應用數(shù)學等專業(yè)的高年級本科生和研究生教學使用,也可作為從事人工智能研究的專業(yè)人員和工程技術人員的參考資料。

作者簡介

暫缺《人工智能的矩陣代數(shù)方法:應用篇》作者簡介

圖書目錄

輔文
6章 機器學習
  6.1 機器學習樹
  6.2 機器學習中的優(yōu)化
   6.2.1 單目標組合優(yōu)化
   6.2.2 梯度聚合法
   6.2.3 坐標下降法
   6.2.4 單目標優(yōu)化的基準函數(shù)
  6.3 優(yōu)化小化算法
   6.3.1 優(yōu)化小 化算法框架
   6.3.2 優(yōu)化小化算法舉例
  6.4 提升與概率近似正確學習
   6.4.1 弱學習算法提升
   6.4.2 概率近似正確學習
  6.5 機器學習的基本理論
   6.5.1 學習機
   6.5.2 機器學習方法
   6.5.3 機器學習算法的期望性能
  6.6 分類與回歸
   6.6.1 模式識別與分類
   6.6.2 回歸
  6.7 特征選擇
   6.7.1 有監(jiān)督特征選擇
   6.7.2 無監(jiān)督特征選擇
   6.7.3 非線性聯(lián)合無監(jiān)督特征選擇
  6.8 主成分分析
   6.8.1 主成分分析基礎
   6.8.2 次成分分析
   6.8.3 主子空間分析
   6.8.4 魯棒主成分分析
   6.8.5 稀疏主成分分析
  6.9 監(jiān)督學習回歸
   6.9.1 主成分回歸
   6.9.2 偏小二乘回歸
   6.9.3 懲罰回歸
   6.9.4 稀疏重構中的梯度投影
  6.10 監(jiān)督學習分類
   6.10.1 二進制線性分類器
   6.10.2 多類線性分類器
  6.11 監(jiān)督張量學習
   6.11.1 張量代數(shù)基礎
   6.11.2 監(jiān)督張量學習問題
   6.11.3 張量Fisher判別分析
   6.11.4 張量回歸學習
   6.11.5 張量K均值聚類
  6.12 無監(jiān)督聚類
   6.12.1 相似性測度
   6.12.2 分層聚類
   6.12.3 無監(jiān)督聚類的Fisher判別分析
   6.12.4 K均值聚類
  6.13 譜聚類
   6.13.1 譜聚類算法
   6.13.2 約束譜聚類
   6.13.3 快速譜聚類
  6.14 半監(jiān)督學習算法
   6.14.1 半監(jiān)督歸納/直推學習
   6.14.2 自訓練
   6.14.3 協(xié)同訓練
  6.15 典型相關分析
   6.15.1 典型相關分析算法
   6.15.2 核典型相關分析
   6.15.3 懲罰典型相關分析
  6.16 圖機器學習
   6.16.1 圖
   6.16.2 圖拉普拉斯矩陣
   6.16.3 圖譜
   6.16.4 圖信號處理
   6.16.5 半監(jiān)督圖學習: 調和函數(shù)法
   6.16.6 半監(jiān)督圖學習: 小割集法
   6.16.7 無監(jiān)督圖學習: 稀疏編碼法
  6.17 主動學習
   6.17.1 主動學習的背景
   6.17.2 統(tǒng)計主動學習
   6.17.3 主動學習算法
   6.17.4 基于主動學習的二元線性分類器
   6.17.5 使用極限學習機的主動學習
  6.18 強化學習
   6.18.1 基本概念與理論
   6.18.2 馬爾可夫決策過程
  6.19 Q學習
   6.19.1 基本Q學習
   6.19.2 雙Q學習與加權雙Q學習
   6.19.3 在線連接Q學習算法
   6.19.4 Q體驗式學習
  6.20 遷移學習
   6.20.1 符號與定義
   6.20.2 遷移學習的分類
   6.20.3 遷移學習的提升
   6.20.4 多任務學習
   6.20.5 特征遷移
  6.21 域適應
   6.21.1 特征增強法
   6.21.2 跨域變換法
   6.21.3 遷移成分分析法
  本章小結
  參考文獻
7章 神經(jīng)網(wǎng)絡
  7.1 神經(jīng)網(wǎng)絡樹
  7.2 從現(xiàn)代神經(jīng)網(wǎng)絡到深度學習
  7.3 神經(jīng)網(wǎng)絡的優(yōu)化
   7.3.1 在線優(yōu)化問題
   7.3.2 自適應梯度算法
   7.3.3 自適應矩估計
  7.4 激活函數(shù)
   7.4.1 邏輯斯諦回歸與S型函數(shù)
   7.4.2 Softma回歸與softma函數(shù)
   7.4.3 其他激活函數(shù)
  7.5 反饋神經(jīng)網(wǎng)絡
   7.5.1 常規(guī)反饋神經(jīng)網(wǎng)絡
   7.5.2 時間反向傳播(BPTT)
   7.5.3 Jordan網(wǎng)絡和Elman網(wǎng)絡
   7.5.4 雙向反饋神經(jīng)網(wǎng)絡
   7.5.5 長短期記憶(LSTM)
   7.5.6 長短期記憶的改進
  7.6 Boltzmann機
   7.6.1 Hopfield網(wǎng)絡與Boltzmann機
   7.6.2 受限Boltzmann機
   7.6.3 對比散度學習
   7.6.4 多重受限Boltzmann機
  7.7 貝葉斯神經(jīng)網(wǎng)絡
   7.7.1 樸素貝葉斯分類
   7.7.2 貝葉斯分類理論
   7.7.3 稀疏貝葉斯學習
  7.8 卷積神經(jīng)網(wǎng)絡
   7.8.1 Hankel矩陣與卷積
   7.8.2 池化層
   7.8.3 卷積神經(jīng)網(wǎng)絡的激活函數(shù)
   7.8.4 損失函數(shù)
  7.9 丟棄學習
   7.9.1 淺層與深層學習的丟棄學習
   7.9.2 丟棄學習球形K均值聚類
   7.9.3 丟棄學習連接
  7.10 自動編碼器
   7.10.1 基本自動編碼器
   7.10.2 堆棧稀疏自動編碼器
   7.10.3 堆棧去噪自動編碼器
   7.10.4 卷積自動編碼器
   7.10.5 堆棧卷積去噪自動編碼器
   7.10.6 非負稀疏自動編碼器
  7.11 極限學習機
   7.11.1 具有隨機隱藏節(jié)點的單隱層前饋網(wǎng)絡
   7.11.2 回歸與二元分類的極限學習機算法
   7.11.3 多類分類的極限學習機算法
  7.12 圖嵌入
   7.12.1 接近度與圖嵌入
   7.12.2 多維標度
   7.12.3 流形學習: 等距映
   7.12.4 流形學習: 局部線性嵌入
   7.12.5 流形學習: 拉普拉斯特征映
  7.13 網(wǎng)絡嵌入
   7.13.1 結構與屬性保持的網(wǎng)絡嵌入
   7.13.2 社區(qū)保持的網(wǎng)絡嵌入
   7.13.3 高階接近度保持的網(wǎng)絡嵌入
  7.14 圖域神經(jīng)網(wǎng)絡
   7.14.1 圖神經(jīng)網(wǎng)絡
   7.14.2 DeepWalk與GraphSAGE
   7.14.3 圖卷積網(wǎng)絡
  7.15 批量規(guī)格化網(wǎng)絡
   7.15.1 批量規(guī)格化
   7.15.2 批量規(guī)格化的變形與擴展
  7.16 生成對抗網(wǎng)絡
   7.16.1 生成對抗網(wǎng)絡框架
   7.16.2 雙向生成對抗網(wǎng)絡
   7.16.3 變分自動編碼器
  本章小結
  參考文獻
8章 支持向量機
  8.1 支持向量機基本理論
   8.1.1 統(tǒng)計學習理論
   8.1.2 線性支持向量機
  8.2 核回歸方法
   8.2.1 再生核與Mercer核
   8.2.2 表示定理與核回歸
   8.2.3 半監(jiān)督與圖回歸
   8.2.4 核偏小二乘回歸
   8.2.5 拉普拉斯支持向量機
  8.3 支持向量機回歸
   8.3.1 支持向量機回歸器
   8.3.2 $epsilon $支持向量回歸
   8.3.3 $ u $支持向量機回歸
  8.4 支持向量機二元分類
   8.4.1 支持向量機二元分類器
   8.4.2 $ u $支持向量二元分類器
   8.4.3 小二乘支持向量機二元分類器
   8.4.4 近似支持向量機二元分類器
   8.4.5 支持向量機遞推特征消除
  8.5 支持向量機多類分類
   8.5.1 多類分類的分解方法
   8.5.2 小二乘支持向量機多類分類器
   8.5.3 近似支持向量機多類分類器
  8.6 回歸與分類的高斯過程
   8.6.1 聯(lián)合概率、邊緣概率與條件概率
   8.6.2 高斯過程
   8.6.3 高斯過程回歸
   8.6.4 高斯過程分類
  8.7 相關向量機
   8.7.1 稀疏貝葉斯回歸
   8.7.2 稀疏貝葉斯分類
   8.7.3 快速邊緣似然大化
  本章小結
  參考文獻
9章 演化計算
  9.1 演化計算樹
  9.2 多目標優(yōu)化
   9.2.1 多目標組合優(yōu)化
   9.2.2 多目標優(yōu)化問題
  9.3 帕累托優(yōu)化理論
   9.3.1 帕累托概念
   9.3.2 適應度選擇法
   9.3.3 非支配排序法
   9.3.4 擁擠距離分配法
   9.3.5 分層聚類法
   9.3.6 多目標優(yōu)化的基準函數(shù)
  9.4 含噪多目標優(yōu)化
   9.4.1 含噪多目標優(yōu)化的帕累托概念
   9.4.2 逼近集合的性能測度
  9.5 多目標模擬火
   9.5.1 模擬火原理
   9.5.2 多目標模擬火算法
   9.5.3 存檔多目標模擬火
  9.6 遺傳算法
   9.6.1 基本遺傳算法運算
   9.6.2 具有基因重排的遺傳算法
  9.7 非支配多目標遺傳算法
   9.7.1 適應度函數(shù)
   9.7.2 適應度選擇
   9.7.3 非支配排序遺傳算法
   9.7.4 精英非支配排序遺傳算法
  9.8 進化算法
   9.8.1 $(1 1)$進化算法
   9.8.2 進化算法的理論分析
  9.9 多目標進化算法
   9.9.1 求解多目標優(yōu)化問題的經(jīng)典方法
   9.9.2 基于分解的多目標進化算法
   9.9.3 增強帕累托進化算法
   9.9.4 成就標量化函數(shù)
  9.10 演化規(guī)劃
   9.10.1 經(jīng)典演化規(guī)劃
   9.10.2 快速演化規(guī)劃
   9.10.3 混合演化規(guī)劃
  9.11 差分演化
   9.11.1 經(jīng)典差分演化
   9.11.2 差分演化的變形
  9.12 蟻優(yōu)化
   9.12.1 真實螞蟻與人工螞蟻
   9.12.2 典型蟻優(yōu)化問題
   9.12.3 螞蟻系統(tǒng)與蟻系統(tǒng)
  9.13 多目標人工蜂算法
   9.13.1 人工蜂算法
   9.13.2 人工蜂算法的變形
  9.14 粒子優(yōu)化
   9.14.1 基本概念
   9.14.2 典型粒子
   9.14.3 遺傳學習粒子優(yōu)化
   9.14.4 特征選擇的粒子優(yōu)化
  9.15 基于對立的演化計算
   9.15.1 對立學習
   9.15.2 基于對立的差分演化
   9.15.3 對立學習的兩種變形
  本章小結
  參考文獻
索引
后記

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號