Im Rahmen unserer Kampagne zu Datenqualität hat unser Gast-Redakteur Andreas Brüggenthies von human IT, Experte für datengetriebene Projekte, mit verschiedenen Experten gesprochen. Stefan Dornseifer, Head of Advanced Analytics, proALPHA Business Solutions GmbH schwört auf Clean Data bei der Projekteinführung.
Welchen Einfluss hat Datenqualität heute auf den Unternehmenserfolg?
Wie bei einem Hausbau auch, muss das Fundament stimmen. So ist es letztlich auch beim Thema der Datenanalysen und des Datenmanagements. Die meisten Unternehmen haben erkannt, dass die Qualität ihrer Daten den Geschäftserfolg maßgeblich beeinflusst: Clean Data bildet die Grundlage für korrekte Auswertungen des Datenbestands und damit auch die Voraussetzung für erfolgreiche Entscheidungen. Umgekehrt verursachen unvollständige, redundante oder fehlerhafte Datensätze mehr Kosten, als auf den ersten Blick anzunehmen ist. Wer mit einem unternehmensweiten Datenqualitätsmanagement dafür sorgt, dass etwa Stamm- und Bewegungsdaten durchgängig korrekt generiert und fehlerfrei verwaltet werden, sichert seine Wettbewerbsfähigkeit und ebnet zugleich den Weg für Big Data.
Daten sind die DNA eines Unternehmens. Ohne Datenqualität keine validen Aussagen und Entscheidungen. Die Möglichkeit der Prüfung und Qualitätssicherung von Daten aus unterschiedlichen Datenquellen in Verbindung mit der Transparenz über Vertriebscockpits, Dashboards und Reports, sichert die Qualität von Entscheidungen.
Wie steigen Sie in datengetriebene Projekte ein?
Eine Maschine, ein Fahrzeug, ein Gebäude. In alle diese Assets investieren Unternehmen, um die Qualität und Funktionalität zu gewährleisten. Warum dann nicht auch in das Wichtigste im Unternehmen: die Daten. Auch diese werden über Jahrzehnte genutzt und verbinden alle Prozesse im Unternehmen. Wenn Unternehmen die Daten nicht „warten“, unterliegen diese dem Verfall und sind nicht mehr verwendbar.
Hier ist es zunächst unerlässlich, ein Bewusstsein für dieses Thema auf allen Ebenen zu schaffen. Erst, wenn das Management sich darüber bewusst ist, dass Business Intelligence ohne Clean Data nicht funktioniert, kann das strategische Ziel der sauberen Datenhaltung erfolgreich ins Unternehmen getragen werden. Um die Mitarbeiter zusätzlich für das Potenzial einer hohen Datenqualität zu sensibilisieren hilft es, konkrete Zielsetzungen zu formulieren und diese mit dem Datenqualitätsmanagement zu verfolgen. Etwa die Verbesserung der Transparenz und Entscheidungsfindung im Unternehmen oder eine Stabilisierung der Kundenbeziehungen. Nur, wenn auch dem Lagermitarbeiter bewusst ist, welche Auswirkungen vermeintlich kleine Ungenauigkeiten bei der Datenerfassung auf die Kosten und damit die Wettbewerbsfähigkeit haben, gibt es Verbesserungen dort, wo die Daten entstehen. Business Intelligence beginnt deshalb auf der Ebene der Logistiker.
In einem ersten Daten Check erstellen wir einen Ergebnisreport, der unseren Kunden DQ-Kennzahlen für die bereitgestellten Daten dokumentiert und Hinweise für eine Verbesserung der Datenqualität gibt. Am Anfang eines jeden Datenqualitätsprojektes gehen wir mit unserem Consulting die zur Verfügung stehenden Datenbestände anhand gezielter Fragestellungen durch und erarbeiten gemeinsam konkrete Lösungen.
Wie kommunizieren Sie plakativ mit Ihren Kunden über Daten und Ziele?
Im Fokus steht hier, dass wir keine Lösung von der „Stange“ anbieten, sondern individuell beratend auf die Bedürfnisse der Kunden und der projektspezifischen Anforderungen eingehen. Im Wesentlichen geht es darum, Transparenz zu schaffen. Alle Beteiligten entwickeln ein einheitliches Verständnis für die Daten, um konkrete Maßnahmen zu besprechen. Das ist für uns die zentrale Voraussetzung, um die Datenqualität nachhaltig zu verbessern.
Der entscheidende Ausgangspunkt zur Datenbereinigung ist das Wissen um die tatsächliche Qualität der eigenen Daten. Um den Ist-Zustand zu erfassen und abzubilden, stehen heute wirkungsvolle Analysetools und -verfahren zur Verfügung. Diese können mit einem überschaubaren Aufwand die vorliegenden Probleme identifizieren und die Fehlerhäufigkeit benennen. Typischerweise kommen hier redundante Stammdaten, unvollständige Datensätze und fehlerhaft erfasste Daten ebenso an die Oberfläche wie Widersprüche zwischen verschiedenen Datenbeständen.
Beispielsweise in der Vorbereitung einer Datenmigration ist eine Kompatibilitätsanalyse für die neue Struktur eines neuen Systems von entscheidender Bedeutung. Sie erkennen Inkompatibilitäten in Formaten und Wertelängen, ergänzen Informationen im Vorfeld oder analysieren Datenobjekte, die nicht mit in das neue System übernommen werden müssen.
Wie kommen Sie zu einer vollständigen, validen Einschätzung der Ausgangsdaten für das Projekt?
Wesentlich ist hier, die vorhandenen Datenbestände zu analysieren, um deren Qualität einschätzen zu können. Hier ist entscheidend, dass eben nicht nur die IT-Abteilung eines Unternehmens in die Analyse der Datenbestände eingebunden wird, sondern auch die Anwender/Benutzer der Fachabteilungen, denn dort entstehen Daten. Die Benutzer kennen ihre Daten und nutzen diese tagtäglich. Durch eine Erstanalyse bieten wir unseren Kunden einen ausführlichen Datencheck vor Ort im Unternehmen oder alternativ via Websession. Dafür stellen wir eine kostenfreie temporäre InfoZoom Lizenz zur lokalen Installation zur Verfügung. Am Ende erhält der Kunde einen bedarfsorientierten Ergebnisreport. Dieser gibt ihm DQ-Kennzahlen auf Basis der bereitgestellten Daten dokumentiert und Hinweise für eine Verbesserung der Datenqualität gibt. Der Report beinhaltet unter anderem die Ermittlung der Füllungsgrade, fehlerhafte Einträge (Doubletten, Schreibweisen, Formatinkonsistenzen), potentielle Dubletten und Plausibilisierungsprüfungen.
Auf dieser Grundlage – als wichtiger Indikator für ein anstehendes Datenqualitätsprojekt – werden gemeinsam mit dem Kunden Regeln ausgearbeitet, die klare Richtlinien vorgeben, welche Daten relevant sind und wie ein sauberer und vollständiger Datensatz auszusehen hat. Ein unternehmensweites Glossar sollte zudem den Inhalt und die Metrik der Dateninhalte beschreiben und für alle Mitarbeiter nachvollziehbar machen. Aufgrund dieser Merkmale ist es möglich, den Datenbestand zu bewerten und festzulegen, was mit fehler- oder lückenhaften Daten geschehen soll.
Welche Funktionen wünschen Sie sich von Software zur Verbesserung von Datenqualität?
Unsere Datenanalyse Software InfoZoom Data Quality Control überwacht dazu fortlaufend und automatisiert die Qualität der Datenbestände unserer Kunden. Die Grundlage hierfür ist ein völlig flexibles und bedarfsorientiertes Regelwerk, welches Fehler erkennt. Anschließend können diese, ohne großen Aufwand, behoben werden. Mit der systematischen Erstbereinigung fehlerhafter Daten lässt sich eine tragfähige Grundlage für eine dauerhafte Datenpflegestrategie schaffen – »make your data clean« heißt die Devise.
Datenqualitätssicherung darf jedoch keine einmalige Angelegenheit bleiben – »keep it clean« lautet der Schlüssel zum langfristigen Erfolg. Um eine einwandfreie Datenqualität auch auf Dauer sicherzustellen, müssen Unternehmen Prozesse zu einer turnusmäßigen Qualitätskontrolle und Datenbereinigung etablieren. Unser Datenanalyse-Tool InfoZoom und unser Data-Quality-Tool InfoZoom IZDQ unterstützen Unternehmen dabei ohne großen Aufwand. Auf diese Weise lassen sich beispielsweise Dubletten oder unvollständig gepflegte Daten einfach aufspüren und direkt bereinigen.
Der IZDQ Regelkreislauf ermöglicht ein kontinuierliches, automatisiertes 24/7 Monitoring der Daten unserer Kunden. Die Aufzeichnung der Datenqualität dokumentiert dabei die Verbesserungen und ermöglicht so ein Controlling und eine Überwachung eingeleiteter Maßnahmen im Zeitablauf.
In der BARC Studie „Data Management Survey 2020“ erzielt InfoZoom die Bestplatzierung in der Bewertung der bereitgestellten Funktionalität eines Datenanalysewerkzeuges. Die intuitiven Funktionen bei der Datenexploration, -analyse und -qualitätsbewertung wurden hier besonders hervorgehoben.