注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)計(jì)算機(jī)科學(xué)理論與基礎(chǔ)知識(shí)Uncertainty Modeling for Data Mining:A Label Semantics Approach(基于不確定性建模的數(shù)據(jù)挖掘)

Uncertainty Modeling for Data Mining:A Label Semantics Approach(基于不確定性建模的數(shù)據(jù)挖掘)

Uncertainty Modeling for Data Mining:A Label Semantics Approach(基于不確定性建模的數(shù)據(jù)挖掘)

定 價(jià):¥120.00

作 者: 秦曾昌 著,秦曾昌,湯永川 編
出版社: 浙江大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 計(jì)算機(jī)理論、基礎(chǔ)知識(shí) 計(jì)算機(jī)與互聯(lián)網(wǎng)

ISBN: 9787308121064 出版時(shí)間: 2014-02-01 包裝: 精裝
開本: 小16開 頁數(shù): 291 字?jǐn)?shù):  

內(nèi)容簡介

  不確定性建模是人工智能的重要研究領(lǐng)域?,F(xiàn)實(shí)世界的問題都因?yàn)椴淮_定性而變得復(fù)雜。概率理論、模糊集合理論及其他不確定性理論的目的都是用數(shù)學(xué)工具對不確定性建模以解決實(shí)際問題。本文的主要內(nèi)容來源于作者們近年來對于一種新的不確定性理論的基礎(chǔ)和應(yīng)用研究。Label Semantics基于人類用語言描敘客觀自然的現(xiàn)象,用label (詞或標(biāo)簽)對不確定性建模。經(jīng)過近幾年的研究,該理論通過結(jié)合模糊集合論和概率論已經(jīng)形成了一個(gè)獨(dú)特的體系。本書將介紹基于Label Semantics的不確定建模的理論基礎(chǔ)和最新的應(yīng)用,尤其是國際最新出現(xiàn)的Prototype理論對Label Semantics的解釋將統(tǒng)計(jì)學(xué)習(xí)和模糊集理論緊密結(jié)合,為模糊理論的應(yīng)用開辟了一條新路。 該書的第一作者自2001年以來從事不確定性建模領(lǐng)域的研究并和Label Semantics理論的創(chuàng)始人Lawry教授一起工作并做了一些奠基性的工作。第二作者于2009年和Lawry教授合作,一起提出了Prototype的解釋理論,這是該領(lǐng)域目前最前沿的工作。本書是國內(nèi)第一本Label Semantics的專著,也是國際上唯一介紹該理論應(yīng)用及最新進(jìn)展的專著。本書提出的理論不僅是國際最新的科研成果,有利于帶動(dòng)該領(lǐng)域在國內(nèi)的發(fā)展,而且,本書提出的理論仍在發(fā)展之中,更能引起更多中國科學(xué)家的重視并從事該研究工作,從而推動(dòng)國內(nèi)人工智能的研究,以達(dá)到國際領(lǐng)先。 Label Semantics理論主要研究不確定信息的建模,可以廣泛地應(yīng)用于各種數(shù)據(jù)挖掘問題。本書詳細(xì)闡述了其中一些具體的應(yīng)用,如對洪水的預(yù)警研究中,用某一流域的地質(zhì)水文信息來生成解釋度比較高的規(guī)則來判斷洪水的可能性。書中還提到了函數(shù)擬合、太陽黑子周期和醫(yī)療診斷等具體的實(shí)例。 本書重點(diǎn)介紹了Label Semantics的理論框架和與其他理論之間的關(guān)系。重點(diǎn)突出了該理論與模糊理論和概率論的結(jié)合。首次提出了數(shù)據(jù)算法的透明度(Transparency)概念,在如何權(quán)衡算法的透明度及其性能方面做了定量研究,并與其他常用算法進(jìn)行比較。本書介紹了近年來作者提出的幾種基于Label Semantics的“透明”數(shù)據(jù)挖掘模型,并有詳細(xì)的算法描述和對其優(yōu)缺點(diǎn)的論述。 首次介紹Prototype理論對Label Semantics的解釋方法,把統(tǒng)計(jì)學(xué)習(xí)的方法引入到不確定系統(tǒng)建模。書中既有詳細(xì)的理論證明和相應(yīng)的實(shí)例,又有直觀的圖表說明。 本書內(nèi)容深入淺出,可讀性強(qiáng),讀者可以較好地理解整個(gè)理論體系。定義和證明都配有相應(yīng)的實(shí)例和解答,能加深讀者對概念的理解。 本書利用模糊集合來描述語言中詞(Word or Label)的模糊性,用所有可能詞的概率分布來表示不確定性的概念,不同于傳統(tǒng)的模糊邏輯方法。該理論為為人們理解不確定性提供了有力的數(shù)學(xué)工具。本書是國內(nèi)第一本該不確定性理論的專業(yè)書籍。本書框架如下:前言:該理論框架的基礎(chǔ),意義,研究進(jìn)展和應(yīng)用前景。第一部分:Label Semantics 理論第二部分:基于Label Semantics 的算法及應(yīng)用第三部分:Prototype 理論對于Label Semantics 的重新詮釋

作者簡介

  秦曾昌 著 秦曾昌,湯永川 編

圖書目錄

1  Introduction
  1.1  Types of Uncertainty
  1.2  Uncertainty Modeling and Data Mining
  1.3  Related Works
  References
2  Induction and Learning
  2.1  Introduction
  2.2  Machine Learning
    2.2.1  Searching in Hypothesis Space
    2.2.2  Supervised Learning
    2.2.3  Unsupervised Leaming
    2.2.4  Instance-Based Learning
  2.3  Data Mining and Algorithms
    2.3.1  Why Do We Need Data Mining?
    2.3.2  How Do We do Data Mining?
    2.3.3  Artificial Neural Networks
    2.3.4  Support Vector Machines
  2.4  Measurement of Classifiers
    2.4.1  ROC Analysis for Classification
    2.4.2  Area Under the ROC Curve
  2.5  Summary
  References
3  Label Semantics Theory
  3.1  Uncertainty Modeling with Labels
    3.1.1  Fuzzy Logic
    3.1.2  Computing with Words
    3.1.3  Mass Assignment Theory
  3.2  Label Semantics
    3.2.1  Epistemic View of Label Semantics
    3.2.2  Random Set Framework
    3.2.3  Appropriateness Degrees
    3.2.4  Assumptions for Data Analysis
    3.2.5  Linguistic Translation
  3.3  Fuzzy Discretization
    3.3.1  Percentile-Based Discretization
    3.3.2  Entropy-Based Discretization
  3.4  Reasoning with Fuzzy Labels
    3.4.1  Conditional Distribution Given Mass Assignments
    3.4.2  Logical Expressions of Fuzzy Labels
    3.4.3  Linguistic Interpretation of Appropriate Labels
    3.4.4  Evidence Theory and Mass Assignment
  3.5  Label Relations
  3.6  Summary
  References
4  Linguistic Decision Trees for Classification
  4.1  Introduction
  4.2  Tree Induction
    4.2.1  Entropy
    4.2.2  Soft Decision Trees
  4.3  Linguistic Decision for Classification
    4.3.1  Branch Probability
    4.3.2  Classification by LDT
    4.3.3  Linguistic ID3 Algorithm
  4.4  Experimental Studies
    4.4.1  Influence of the Threshold
    4.4.2  Overlapping Between Fuzzy Labels
  4.5  Comparison Studies
  4.6  Merging of Branches
     4.6.1  Forward Merging Algorithm
     4.6.2  Dual-Branch LDTs
     4.6.3  Experimental Studies for Forward Merging
     4.6.4  ROC Analysis for Forward Merging
  4.7  Linguistic Reasoning
     4.7.1  Linguistic Interpretation of an LDT
     4.7.2  Linguistic Constraints
     4.7.3  Classification of Fuzzy Data
  4.8  Summary
  References
5  Linguistic Decision Trees for Prediction
  5.1  Prediction Trees
  5.2  Linguistic Prediction Trees
    5.2.1  Branch Evaluation
    5.2.2  Defuzzification
    5.2.3  Linguistic ID3 Algorithm for Prediction
    5.2.4  Forward Branch Merging for Prediction
  5.3  Experimental Studies
    5.3.1  3D Surface Regression
    5.3.2  Abalone and Boston Housing Problem
    5.3.3  Prediction of Sunspots
    5.3.4  Flood Forecasting
  5.4  Query Evaluation
    5.4.1  Single Queries
    5.4.2  Compound Queries
  5.5  ROC Analysis for Prediction
    5.5.1  Predictors and Probabilistic Classifiers
    5.5.2  AUC Value for Prediction
  5.6  Summary
  References
6  Bayesian Methods Based on Label Semantics
  6.1  Introduction
  6.2  Naive Bayes
    6.2.1  Bayes Theorem
    6.2.2  Fuzzy Naive Bayes
  6.3  Fuzzy Semi-Naive Bayes
  6.4  Online Fuzzy Bayesian Prediction
    6.4.1  Bayesian Methods
    6.4.2  Online Learning
  6.5  Bayesian Estimation Trees
    6.5.1  Bayesian Estimation Given an LDT
    6.5.2  Bayesian Estimation from a Set of Trees
  6.6  Experimental Studies
  6.7  Summary
  References
7  Unsupervised Learning with Label Semantics
  7.1  Introduction
  7.2  Non-Parametric Density Estimation
  7.3  Clustering
    7.3.1  Logical Distance
    7.3.2  Clustering of Mixed Objects
  7.4  Experimental Studies
  7.4.1  Logical Distance Example
    7.4.2  Images and Labels Clustering
  7.5  Summary
  References
8  Linguistic FOIL and Multiple Attribute Hierarchy for Decision Making
  8.1  Introduction
  8.2  Rule Induction
  8.3  Multi-Dimensional Label Semantics
  8.4  Linguistic FOIL
    8.4.1  Information Heuristics for LFOIL
    8.4.2  Linguistic Rule Generation
    8.4.3  Class Probabilities Given a Rule Base
  8.5  Experimental Studies
  8.6  Multiple Attribute Decision Making
    8.6.1  Linguistic Attribute Hierarchies
    8.6.2  Information Propagation Using LDT
  8.7  Summary
  References
9  A Prototype Theory Interpretation of Label Semantics
  9.1  Introduction
  9.2  Prototype Semantics for Vague Concepts
    9.2.1  Uncertainty Measures about the Similarity Neighborhoods Determined by Vague Concepts
    9.2.2  Relating Prototype Theory and Label Semantics
    9.2.3  Gaussian-Type Density Function
  9.3  Vague Information Coarsening in Theory of Prototypes
  9.4  Linguistic Inference Systems
  9.5  Summary
  References
10  Prototype Theory for Learning
  10.1 Introduction
    10.1.1 General Rule Induction Process
    10.1.2 A Clustering Based Rule Coarsening
  10.2 Linguistic Modeling of Time Series Predictions
    10.2.1 Mackey-Glass Time Series Prediction
    10.2.2 Prediction of Sunspots
  10.3 Summary
  References
11  Prototype-Based Rule Systems
  11.1 Introduction
  11.2 Prototype-Based IF-THEN Rules
  11.3 Rule Induction Based on Data Clustering and Least-Square Regression
  11.4 Rule Learning Using a Conjugate Gradient Algorithm
  11.5 Applications in Prediction Problems
    11.5.1 Surface Predication
    11.5.2 Mackey-Glass Time Series Prediction
    11.5.3 Prediction of Sunspots
  11.6 Summary
  References
12  Information Cells and Information Cell Mixture Models
  12.1 Introduction
  12.2 Information Cell for Cognitive Representation of Vague Concept Semantics
  12.3 Information Cell Mixture Model (ICMM) for Semantic Representation of Complex Concept
  12.4 Learning Information Cell Mixture Model from Data Set
    12.4.1 Objective Function Based on Positive Density Function..
    12.4.2 Updating Probability Distribution of Information Cells...
    12.4.3 Updating Density Functions of Information Cells
    12.4.4 Information Cell Updating Algorithm
    12.4.5 Learning Component Number of ICMM
  12.5 Experimental Study
  12.6 Summary
  References

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)