Details

Webbasierte Datenintegration


Webbasierte Datenintegration

Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges
Ausgezeichnete Arbeiten zur Informationsqualität

von: Steven Helmis, Robert Hollmann

49,44 €

Verlag: Vieweg & Teubner
Format: PDF
Veröffentl.: 19.02.2009
ISBN/EAN: 9783834892805
Sprache: deutsch
Anzahl Seiten: 197

Dieses eBook enthält ein Wasserzeichen.

Beschreibungen

Datenbereinigung und Konsolidierung von heterogenen Datenbeständen.- Datenqualität.- Dimensionen und Architektur der Informationsintegration.- Data Cleaning.- Konzeption des Data Cleaning Toolkits.- Implementierung.- Zusammenfassung und Ausblick.- Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen.- Informationen, Daten und Wissen- ein Definitionsversuch.- Informationsintegration im Fokus der Datenqualität.- Duplikate in Datenbeständen.- Konkrete Verfahren zur Dublettenauffindung und Klassifikation.- Konzept der Datenqualitätsanwendung „DCT“.- Implementierung, ausgewählte Algorithmen- und Datenstrukturen.- Fazit und Ausblick.
Steven Helmis und Robert Hollmann studierten Angewandte Informatik an der Fachhochschule Erfurt und wurden für ihre Arbeiten mit dem „Information Quality Best Master Degree Award“ der Deutschen Gesellschaft für Informations- und Datenqualität ausgezeichnet.
Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle. <br>
<br>
Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann. <br>
Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle. <br>
<br>
Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann. <br>

Diese Produkte könnten Sie auch interessieren:

Quantifiers in Action
Quantifiers in Action
von: Antonio Badia
PDF ebook
96,29 €
Managing and Mining Uncertain Data
Managing and Mining Uncertain Data
von: Charu C. Aggarwal
PDF ebook
96,29 €