Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen
Dekorationsartikel gehören nicht zum Leistungsumfang.
Statistical Learning Theory
Buch von Vladimir N Vapnik
Sprache: Englisch

231,95 €*

inkl. MwSt.

Versandkostenfrei per Post / DHL

Lieferzeit 2-3 Wochen

Produkt Anzahl: Gib den gewünschten Wert ein oder benutze die Schaltflächen um die Anzahl zu erhöhen oder zu reduzieren.
Kategorien:
Beschreibung
Dieses Buch widmet sich der statistischen Theorie des Lernens und der Verallgemeinerung - das heißt, dem Problem der Auswahl der gewünschten Funktion auf der Basis empirischen Datenmaterials. Anwendung findet die Theorie auf vielen verschiedenen Gebieten - in neuronalen Netzwerken, Fuzzy-Logic-Systemen und künstlicher Intelligenz - beispielsweise in der Psychologie und der Informationswissenschaft. (8/98)
Dieses Buch widmet sich der statistischen Theorie des Lernens und der Verallgemeinerung - das heißt, dem Problem der Auswahl der gewünschten Funktion auf der Basis empirischen Datenmaterials. Anwendung findet die Theorie auf vielen verschiedenen Gebieten - in neuronalen Netzwerken, Fuzzy-Logic-Systemen und künstlicher Intelligenz - beispielsweise in der Psychologie und der Informationswissenschaft. (8/98)
Über den Autor

Vladimir Naumovich Vapnik is one of the main developers of the Vapnik-Chervonenkis theory of statistical learning, and the co-inventor of the support vector machine method, and support vector clustering algorithm.

Inhaltsverzeichnis

Preface xxi

Introduction: The Problem of induction and Statistical inference 1

I Theory of learning and generation

1 Two Approches to the learnig problem 19

Appendix to chapter 1: Methods for solving III-posed problems 51

2 Estimation of the probability Measure and problem of learning 59

3 Conditions for Consistency of Empirical Risk Minimization Principal 79

4 Bounds on the Risk for indicator Loss Functions 121

Appendix to Chapter 4: Lower Bounds on the Risk of the ERM Principle 169

5 Bounds on the Risk for Real-valued loss functions 183

6 The structural Risk Minimization Principle 219

Appendix to chapter 6: Estimating Functions on the basis of indirect measurements 271

7 stochastic III-posed problems 293

8 Estimating the values of Function at given points 339

II Support Vector Estimation of Functions

9 Perceptions and their Generalizations 375

10 The Support Vector Method for Estimating Indicator functions 401

11 The Support Vector Method for Estimating Real-Valued functions 443

12 SV Machines for pattern Recognition 493

13 SV Machines for Function Approximations, Regression Estimation, and Signal Processing 521

III Statistical Foundation of Learning Theory

14 Necessary and Sufficient Conditions for Uniform Convergence of Frequencies to their Probabilities 571

15 Necessary and Sufficient Conditions for Uniform Convergence of Means to their Expectations 597

16 Necessary and Sufficient Conditions for Uniform One-sided Convergence of Means to their Expectations 629

Comments and Bibliographical Remarks 681

References 723

Index 733

Details
Erscheinungsjahr: 1998
Fachbereich: Wahrscheinlichkeitstheorie
Genre: Importe, Mathematik
Rubrik: Naturwissenschaften & Technik
Medium: Buch
Inhalt: 768 S.
ISBN-13: 9780471030034
ISBN-10: 0471030031
Sprache: Englisch
Einband: Gebunden
Autor: Vapnik, Vladimir N
Hersteller: Wiley
John Wiley & Sons
Verantwortliche Person für die EU: Wiley-VCH GmbH, Boschstr. 12, D-69469 Weinheim, product-safety@wiley.com
Maße: 240 x 161 x 45 mm
Von/Mit: Vladimir N Vapnik
Erscheinungsdatum: 30.09.1998
Gewicht: 1,296 kg
Artikel-ID: 104856015
Über den Autor

Vladimir Naumovich Vapnik is one of the main developers of the Vapnik-Chervonenkis theory of statistical learning, and the co-inventor of the support vector machine method, and support vector clustering algorithm.

Inhaltsverzeichnis

Preface xxi

Introduction: The Problem of induction and Statistical inference 1

I Theory of learning and generation

1 Two Approches to the learnig problem 19

Appendix to chapter 1: Methods for solving III-posed problems 51

2 Estimation of the probability Measure and problem of learning 59

3 Conditions for Consistency of Empirical Risk Minimization Principal 79

4 Bounds on the Risk for indicator Loss Functions 121

Appendix to Chapter 4: Lower Bounds on the Risk of the ERM Principle 169

5 Bounds on the Risk for Real-valued loss functions 183

6 The structural Risk Minimization Principle 219

Appendix to chapter 6: Estimating Functions on the basis of indirect measurements 271

7 stochastic III-posed problems 293

8 Estimating the values of Function at given points 339

II Support Vector Estimation of Functions

9 Perceptions and their Generalizations 375

10 The Support Vector Method for Estimating Indicator functions 401

11 The Support Vector Method for Estimating Real-Valued functions 443

12 SV Machines for pattern Recognition 493

13 SV Machines for Function Approximations, Regression Estimation, and Signal Processing 521

III Statistical Foundation of Learning Theory

14 Necessary and Sufficient Conditions for Uniform Convergence of Frequencies to their Probabilities 571

15 Necessary and Sufficient Conditions for Uniform Convergence of Means to their Expectations 597

16 Necessary and Sufficient Conditions for Uniform One-sided Convergence of Means to their Expectations 629

Comments and Bibliographical Remarks 681

References 723

Index 733

Details
Erscheinungsjahr: 1998
Fachbereich: Wahrscheinlichkeitstheorie
Genre: Importe, Mathematik
Rubrik: Naturwissenschaften & Technik
Medium: Buch
Inhalt: 768 S.
ISBN-13: 9780471030034
ISBN-10: 0471030031
Sprache: Englisch
Einband: Gebunden
Autor: Vapnik, Vladimir N
Hersteller: Wiley
John Wiley & Sons
Verantwortliche Person für die EU: Wiley-VCH GmbH, Boschstr. 12, D-69469 Weinheim, product-safety@wiley.com
Maße: 240 x 161 x 45 mm
Von/Mit: Vladimir N Vapnik
Erscheinungsdatum: 30.09.1998
Gewicht: 1,296 kg
Artikel-ID: 104856015
Sicherheitshinweis

Ähnliche Produkte

Ähnliche Produkte