Big Data
Techniken und Best Practices für Datensysteme
Seiten
- Titel ist leider vergriffen;
keine Neuauflage - Artikel merken
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen.
Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Themen sind insbesondere:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen.
Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Themen sind insbesondere:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Nathan Marz ist der Erfinder von Apache Storm und der Lambda-Architektur für Big-Data-Systeme.
James Warren befasst sich mit Datenanalysen und kennt sich bestens mit algorithmischem Lernen und wissenschaftlichem Rechnen aus.
lt;p>»Die Stärke des Buches liegt darin, dass es tatsächlich einen tieferen Einblick in Struktur und Funktion von Big-Data-Systemen bietet. Einzelmechanismen wie HDFS, MapReduce, Streaming und anderes werden im Detail dargestellt. Damit hilft die Lektüre zu verstehen, wann, wo und wie solche Systeme eingesetzt werden müssen oder sollten.« (Bigdata-Insider, 02/2019)
Erscheinungsdatum | 01.10.2016 |
---|---|
Reihe/Serie | mitp Professional |
Verlagsort | Frechen |
Sprache | deutsch |
Maße | 170 x 240 mm |
Gewicht | 624 g |
Einbandart | kartoniert |
Themenwelt | Informatik ► Datenbanken ► Data Warehouse / Data Mining |
Mathematik / Informatik ► Informatik ► Netzwerke | |
Schlagworte | Apache Storm • Big Data • Cassandra • Datenanalyse • Datenbanken • Datenspeicherung • Hadoop • Lambda Architektur • MapReduce • NoSQL • Processing |
ISBN-10 | 3-95845-175-6 / 3958451756 |
ISBN-13 | 978-3-95845-175-9 / 9783958451759 |
Zustand | Neuware |
Haben Sie eine Frage zum Produkt? |
Mehr entdecken
aus dem Bereich
aus dem Bereich
eine Einführung mit Python, Scikit-Learn und TensorFlow
Buch | Softcover (2024)
O'Reilly (Verlag)
CHF 27,85
Datenanalyse für Künstliche Intelligenz
Buch | Softcover (2024)
De Gruyter Oldenbourg (Verlag)
CHF 104,90