Deep Learning. Das umfassende Handbuch (eBook)
912 Seiten
MITP Verlags GmbH & Co. KG
978-3-95845-702-7 (ISBN)
- Mathematische Grundlagen für Machine und Deep Learning
- Umfassende Behandlung zeitgemäßer Verfahren: tiefe Feedforward-Netze, Regularisierung, Performance-Optimierung sowie CNNs, Rekurrente und Rekursive Neuronale Netze
- Zukunftsweisende Deep-Learning-Ansätze sowie von Ian Goodfellow neu entwickelte Konzepte wie Generative Adversarial Networks
Deep Learning ist ein Teilbereich des Machine Learnings und versetzt Computer in die Lage, aus Erfahrungen zu lernen. Dieses Buch behandelt umfassend alle Aspekte, die für den Einsatz und die Anwendung von Deep Learning eine Rolle spielen: In Teil I erläutern die Autoren die mathematischen Grundlagen für Künstliche Intelligenz, Neuronale Netze, Machine Learning und Deep Learning.
In Teil II werden die aktuellen in der Praxis genutzten Verfahren und Algorithmen behandelt.
In Teil III geben die Autoren Einblick in aktuelle Forschungsansätze und zeigen neue zukunftsweisende Verfahren auf.
Dieses Buch richtet sich an Studenten und alle, die sich in der Forschung mit Deep Learning beschäftigen sowie an Softwareentwickler und Informatiker, die Deep Learning für eigene Produkte oder Plattformen einsetzen möchten. Dabei werden Grundkenntnisse in Mathematik, Informatik und Programmierung vorausgesetzt.
Teil I: Angewandte Mathematik und Grundlagen für das Machine Learning
- Lineare Algebra
- Wahrscheinlichkeits- und Informationstheorie
- Bayessche Statistik
- Numerische Berechnung
Teil II: Deep-Learning-Verfahren
- Tiefe Feedforward-Netze
- Regularisierung
- Optimierung beim Trainieren tiefer Modelle
- Convolutional Neural Networks
- Sequenzmodellierung für Rekurrente und Rekursive Netze
- Praxisorientierte Methodologie
- Anwendungen: Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache
Teil III: Deep-Learning-Forschung
- Lineare Faktorenmodelle
- Autoencoder
- Representation Learning
- Probabilistische graphische Modelle
- Monte-Carlo-Verfahren
- Die Partitionsfunktion
- Approximative Inferenz
- Tiefe generative Modelle wie Restricted Boltzmann Machines, Deep-Belief-Netze, Gerichtete Generative Netze, Variational Autoencoder u.v.m.
Inhaltsverzeichnis
- 1 Einleitung
- I Angewandte Mathematik und Grundlagen für das Machine Learning
- 2 Lineare Algebra
- 2.1 Skalare, Vektoren, Matrizen und Tensoren
- 2.2 Multiplizieren von Matrizen und Vektoren
- 2.3 Einheits- und Umkehrmatrizen
- 2.4 Lineare Abhängigkeit und lineare Hülle
- 2.5 Normen
- 2.6 Spezielle Matrizen und Vektoren
- 2.7 Eigenwertzerlegung
- 2.8 Singulärwertzerlegung
- 2.9 Die Moore-Penrose-Pseudoinverse
- 2.10 Der Spuroperator
- 2.11 Die Determinante
- 2.12 Beispiel: Hauptkomponentenanalyse
- 3 Wahrscheinlichkeits- und Informationstheorie
- 3.1 Warum Wahrscheinlichkeit?
- 3.2 Zufallsvariablen
- 3.3 Wahrscheinlichkeitsverteilungen
- 3.4 Randwahrscheinlichkeit
- 3.5 Bedingte Wahrscheinlichkeit
- 3.6 Die Produktregel der bedingten Wahrscheinlichkeiten
- 3.7 Unabhängigkeit und bedingte Unabhängigkeit
- 3.8 Erwartungswert, Varianz und Kovarianz
- 3.9 Häufig genutzte Wahrscheinlichkeitsverteilungen
- 3.10 Nützliche Eigenschaften häufig verwendeter Funktionen
- 3.11 Satz von Bayes
- 3.12 Technische Einzelheiten stetiger Variablen
- 3.13 Informationstheorie
- 3.14 Strukturierte probabilistische Modelle
- 4 Numerische Berechnung
- 5 Grundlagen für das Machine Learning
- 5.1 Lernalgorithmen
- 5.1.1 Die Aufgabe T
- 5.1.2 Die Leistungsbewertung P
- 5.1.3 Die Erfahrung E
- 5.1.4 Beispiel: Lineare Regression
- 5.2 Kapazität, Überanpassung und Unteranpassung
- 5.2.1 Das No-Free-Lunch-Theorem
- 5.2.2 Regularisierung
- 5.3 Hyperparameter und Validierungsdaten
- 5.3.1 Kreuzvalidierung
- 5.4 Schätzer, Verzerrung und Varianz
- 5.5 Maximum-Likelihood-Schätzung
- 5.6 Bayessche Statistik
- 5.7 Algorithmen für überwachtes Lernen
- 5.8 Algorithmen für unüberwachtes Lernen
- 5.8.1 Hauptkomponentenanalyse
- 5.8.2 k-Means-Clustering
- 5.9 Stochastisches Gradientenabstiegsverfahren
- 5.10 Entwickeln eines Machine-Learning-Algorithmus
- 5.11 Probleme, an denen Deep Learning wächst
- 5.1 Lernalgorithmen
- 2 Lineare Algebra
- II Tiefe Netze: Zeitgemäße Verfahren
- 6 Tiefe Feedforward-Netze
- 6.1 Beispiel: Erlernen von XOR
- 6.2 Lernen auf Gradientenbasis
- 6.2.1 Kostenfunktionen
- 6.2.2 Ausgabeeinheiten
- 6.3 Verdeckte Einheiten
- 6.4 Architekturdesign
- 6.5 Backpropagation und andere Algorithmen zur Differentiation
- 6.5.1 Berechnungsgraphen
- 6.5.2 Kettenregel in der Analysis
- 6.5.3 Rekursive Anwendung der Kettenregel, um Backpropagation zu erreichen
- 6.5.4 Berechnen der Backpropagation im vollständig verbundenen mehrschichtigen Perzeptron
- 6.5.5 Symbol-to-Symbol-Ableitungen
- 6.5.6 Allgemeine Backpropagation
- 6.5.7 Beispiel: Backpropagation für ein MLP-Training
- 6.5.8 Komplikationen
- 6.5.9 Differentiation außerhalb der Deep-Learning-Forschungsgemeinde
- 6.5.10 Ableitungen höherer Ordnung
- 6.6 Historische Anmerkungen
- 7 Regularisierung
- 7.1 Parameter-Norm-Strafterme
- 7.1.1 L2-Parameter-Regularisierung
- 7.1.2 L1-Regularisierung
- 7.2 Norm-Strafterme als Optimierung unter Nebenbedingungen
- 7.3 Regularisierung und unterbestimmte Probleme
- 7.4 Erweitern des Datensatzes
- 7.5 Robustheit gegen Rauschen
- 7.5.1 Hinzufügen von Rauschen
- 7.6 Halb-überwachtes Lernen
- 7.7 Multitask Learning
- 7.8 Früher Abbruch
- 7.9 Parameter Tying und Parameter Sharing
- 7.9.1 CNNs
- 7.10 Dünnbesetzte Repräsentationen
- 7.11 Bagging und andere Ensemblemethoden
- 7.12 Dropout
- 7.13 Adversarial Training
- 7.14 Tangentendistanz, Tangenten-Propagation und Mannigfaltigkeit-Tangentenklassifikator
- 7.1 Parameter-Norm-Strafterme
- 8 Optimierung beim Trainieren von tiefen Modellen
- 8.1 Unterschied zwischen Lernen und reiner Optimierung
- 8.2 Herausforderungen bei der Optimierung neuronaler Netze
- 8.2.1 Schlechte Konditionierung
- 8.2.2 Lokale Minima
- 8.2.3 Plateaus, Sattelpunkte und andere flache Bereiche
- 8.2.4 Klippen und explodierende Gradienten
- 8.2.5 Langfristige Abhängigkeiten
- 8.2.6 Inexakte Gradienten
- 8.2.7 Schlechte Korrespondenz zwischen lokaler und globaler Struktur
- 8.2.8 Theoretische Grenzen der Optimierung
- 8.3 Grundlegende Algorithmen
- 8.3.1 Stochastisches Gradientenabstiegsverfahren
- 8.3.2 Momentum
- 8.3.3 Nesterow-Momentum
- 8.4 Verfahren zur Parameterinitialisierung
- 8.5 Algorithmen mit adaptiven Lernraten
- 8.5.1 AdaGrad
- 8.5.2 RMSProp
- 8.5.3 Adam
- 8.5.4 Auswählen des passenden Optimierungsalgorithmus
- 8.6 Approximative Verfahren zweiter Ordnung
- 8.6.1 Newton-Verfahren
- 8.6.2 Konjugierte Gradienten
- 8.6.3 BFGS
- 8.7 Optimierungsverfahren und Meta-Algorithmen
- 9 CNNs
- 6 Tiefe Feedforward-Netze
Erscheint lt. Verlag | 22.12.2018 |
---|---|
Reihe/Serie | mitp Professional |
Sprache | deutsch |
Themenwelt | Mathematik / Informatik ► Informatik |
Schlagworte | Data Science • Lernalgorithmen • machine learning • Mathematik • predictive analytics • Statistik |
ISBN-10 | 3-95845-702-9 / 3958457029 |
ISBN-13 | 978-3-95845-702-7 / 9783958457027 |
Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
Haben Sie eine Frage zum Produkt? |
Größe: 24,9 MB
Digital Rights Management: ohne DRM
Dieses eBook enthält kein DRM oder Kopierschutz. Eine Weitergabe an Dritte ist jedoch rechtlich nicht zulässig, weil Sie beim Kauf nur die Rechte an der persönlichen Nutzung erwerben.
Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belletristik und Sachbüchern. Der Fließtext wird dynamisch an die Display- und Schriftgröße angepasst. Auch für mobile Lesegeräte ist EPUB daher gut geeignet.
Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise
Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.
aus dem Bereich