Nicht aus der Schweiz? Besuchen Sie lehmanns.de

Webbasierte Datenintegration

Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges
Buch | Softcover
XXI, 198 Seiten
2008 | 2009
Vieweg & Teubner (Verlag)
978-3-8348-0723-6 (ISBN)

Lese- und Medienproben

Webbasierte Datenintegration - Steven Helmis, Robert Hollmann
CHF 97,95 inkl. MwSt
Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle.

Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und -analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann.

Steven Helmis und Robert Hollmann studierten Angewandte Informatik an der Fachhochschule Erfurt und wurden für ihre Arbeiten mit dem „Information Quality Best Master Degree Award“ der Deutschen Gesellschaft für Informations- und Datenqualität ausgezeichnet.

Datenbereinigung und Konsolidierung von heterogenen Datenbeständen.- Datenqualität.- Dimensionen und Architektur der Informationsintegration.- Data Cleaning.- Konzeption des Data Cleaning Toolkits.- Implementierung.- Zusammenfassung und Ausblick.- Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen.- Informationen, Daten und Wissen- ein Definitionsversuch.- Informationsintegration im Fokus der Datenqualität.- Duplikate in Datenbeständen.- Konkrete Verfahren zur Dublettenauffindung und Klassifikation.- Konzept der Datenqualitätsanwendung "DCT".- Implementierung, ausgewählte Algorithmen- und Datenstrukturen.- Fazit und Ausblick.

Erscheint lt. Verlag 25.11.2008
Reihe/Serie Ausgezeichnete Arbeiten zur Informationsqualität
Zusatzinfo XXI, 198 S.
Verlagsort Wiesbaden
Sprache deutsch
Maße 148 x 210 mm
Gewicht 292 g
Themenwelt Informatik Theorie / Studium Algorithmen
Schlagworte Dataprofiling • Datenbank • Datenintegration • Datenqualität • Datenverarbeitung • Deduplizierung • Recordmerging • Webtechnologie
ISBN-10 3-8348-0723-0 / 3834807230
ISBN-13 978-3-8348-0723-6 / 9783834807236
Zustand Neuware
Haben Sie eine Frage zum Produkt?
Mehr entdecken
aus dem Bereich
IT zum Anfassen für alle von 9 bis 99 – vom Navi bis Social Media

von Jens Gallenbacher

Buch | Softcover (2021)
Springer (Verlag)
CHF 41,95
Interlingua zur Gewährleistung semantischer Interoperabilität in der …

von Josef Ingenerf; Cora Drenkhahn

Buch | Softcover (2023)
Springer Fachmedien (Verlag)
CHF 46,15