Informationsgesteuertes maschinelles Lernen
Springer International Publishing (Verlag)
978-3-031-56273-0 (ISBN)
Dieses innovative Lehrbuch revolutioniert das maschinelle Lernen durch neue Informationsmessungsmethoden. Es basiert auf einem Seminar der UC Berkeley und zielt darauf ab, die Black-Box-Natur des maschinellen Lernens zu überwinden, indem es Datenqualitätsmessungen und A-priori-Schätzungen der Aufgabenkomplexität ermöglicht. Dies führt zu kleineren, erklärbareren und robusteren Modellen.
Das Lehrbuch verbindet maschinelles Lernen mit Physik, Informationstheorie und Computertechnik und ist für ein breites Publikum verständlich. Es hinterfragt bestehende Branchenpraktiken und behandelt Themen wie Deep Learning und Datendrift. Geeignet für Akademiker und Industrieprofis, fördert es ein tiefgreifendes Verständnis von Data Science und lädt Leser ein, über konventionelle Ansätze hinauszudenken. Anstatt sich ausschließlich auf das "Wie" zu konzentrieren, bietet dieser Text Antworten auf die "Warum"-Fragen, die das Fachgebiet durchdringen, und beleuchtet die zugrunde liegenden Prinzipien maschineller Lernprozesse und ihre praktischen Auswirkungen. Indem dieses Buch systematische Methoden bevorzugt, die auf physikalischen Grundprinzipien basieren, stellt es Branchenpraktiken in Frage, die oft aus ideologischen oder gewinnorientierten Motivationen entstanden sind. Es behandelt eine Reihe von Themen, darunter Deep Learning, Datendrift und MLOps, und nutzt ausgiebig grundlegende Konzepte wie Entropie, Kapazität und hohe Dimensionalität.
Dieses Buch ist sowohl für Hochschul- als auch für Industrieprofis geeignet und dient als wertvolles Werkzeug für diejenigen, die ihr Verständnis von Data Science als Ingenieurdisziplin vertiefen möchten. Der zum Nachdenken anregende Inhalt regt die intellektuelle Neugier an und richtet sich an Leser, die mehr wollen als nur Code oder vorgefertigte Formeln. Der Text lädt die Leser dazu ein, über konventionelle Standpunkte hinauszuforschen und bietet eine alternative Perspektive, die eine umfassende Sichtweise für die Integration von Theorie und Praxis fördert. Dieses Buch eignet sich für Kurse im Grund- und Hauptstudium und kann auch praktizierenden Ingenieuren und Wissenschaftlern verschiedener Disziplinen zugute kommen, indem es ihr Verständnis der Modellierung vertieft und die Datenmessung effektiv verbessert.Gerald Friedland: Dr. Friedlands Beiträge auf dem Gebiet des maschinellen Lernens, die in der "AI2000 Most Influential Scholar"-Liste als meistzitierte KI-Werke des letzten Jahrzehnts aufgeführt sind, waren sowohl substanziell als auch nachhaltig, seit er 2001 auf diesem Gebiet zu arbeiten begann. Sein "Simple Interactive Object Extraction"-Algorithmus ist seit 2005 Teil von Open-Source-Bildbearbeitungs- und Erstellungsanwendungen (wie z.B. GIMP oder Blender) und sein cloudloses MOVI Speech Recognition Board wird seit 2015 von Herstellern verwendet. Derzeit ist er außerordentlicher Dozent an der University of California, Berkeley, Fakultätsmitglied des Berkeley Institute of Data Science und leitender Wissenschaftler im Sagemaker-Team bei Amazon AWS.
Nach seiner Promotion an der Freien Universität Berlin unter Prof. Raul Rojas im Jahr 2006, leitete Dr. Friedland als Direktor für Audio- und Multimedia-Forschung am International Computer Science Institute in Berkeley ein Forscherteam im Bereich Sprach- und Multimedia-Inhaltsanalyse. Anschließend war er von 2016 bis 2019 Principal Data Scientist am Lawrence Livermore National Lab. In diesem Jahr war er Mitbegründer von Brainome, Inc., wo er sein technisches Fachwissen nutzte, um ein automatisches maschinelles Lerntool zu entwickeln, das auf Techniken zur Informationsmessung basiert, welche auch im Mittelpunkt dieses Buches stehen. Seine Reise führte ihn dann im Jahr 2022 als Principal Scientist, AutoML, zu Amazon AWS.
Vorwort.- 1 Einleitung.- 2 Der automatisierte wissenschaftliche Prozess.- 3 Der (Black Box) maschinelle Lernprozess.- 4 Informationstheorie.- 5 Kapazität.- 6 Die Mechanik der Generalisierung.- 7 Meta-Mathematik: Erkundung der Grenzen von Modellierung.- 8 Kapazität neuronaler Netze.- 8 Kapazität neuronaler Netze.- 10 Kapazitäten einiger anderer Methoden des maschinellen Lernens.- 11 Datenerfassung und -vorbereitung.- 12 Messen der Datensuffizienz.- 13 Operationen des maschinellen Lernens.- 14 Erklärbarkeit.- 15 Wiederholbarkeit und Reproduzierbarkeit.- 16 Der Fluch des Trainings und der Segen der Hochdimensionalität.- 16 Der Fluch des Trainings und der Segen der Hochdimensionalität.- Anhang A Zusammenfassung: Der Logarithmus.- Anhang B Mehr zur Komplexität.- Anhang C Konzepte Spickzettel.- Anhang D Ein Überprüfungsformular, das die Reproduzierbarkeit fördert.- Liste der Abbildungen.- Bibliographie.
Erscheinungsdatum | 31.07.2024 |
---|---|
Zusatzinfo | XXVI, 309 S. 70 Abb., 33 Abb. in Farbe. |
Verlagsort | Cham |
Sprache | deutsch |
Original-Titel | Information-Driven Machine Learning |
Maße | 155 x 235 mm |
Themenwelt | Mathematik / Informatik ► Informatik ► Datenbanken |
Schlagworte | Entscheidungsbäume • Erklärbarkeit • Experimente zum maschinellen Lernen • Informationsmessungen • Informationstheorie • Neuronale Netze |
ISBN-10 | 3-031-56273-9 / 3031562739 |
ISBN-13 | 978-3-031-56273-0 / 9783031562730 |
Zustand | Neuware |
Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
Haben Sie eine Frage zum Produkt? |
aus dem Bereich