Pressemitteilung

Daten: Das Öl des 21. Jahrhunderts

Veröffentlicht am 27.04.2021

Im Rahmen unserer Kampagne zu Datenqualität hat unser Gast-Redakteur Andreas Brüggenthies von human IT, Experte für datengetriebene Projekte, mit verschiedenen Experten gesprochen. Sharam Dadashnia ist Chief Data Scientist bei der Scheer GmbH und bezeichnet Daten als das Öl des 21. Jahrhunderts. Gute Datenauswertungen sind das Fundament wichtiger Geschäftsentscheidungen.

Welchen Einfluss hat Datenqualität heute auf den Unternehmenserfolg?

Daten sind das Öl des 21. Jahrhunderts. Immer mehr Entscheidungen werden auf der Basis ausgewerteter Daten getroffen. Je besser diese Datenauswertungen sind, desto fundierter können Unternehmen auch wichtige Geschäftsentscheidungen treffen. Dabei spielt vor allem die Schnelligkeit in Bezug auf die Verfügbarkeit der ausgewerteten Daten sowie die Nachvollziehbarkeit der Auswertung eine wichtige Rolle. Die Basis für solche geschäftskritischen Auswertungen sind natürlich die vorhandenen Daten, die zur Auswertung benötigt werden. Dabei ist die Datenqualität eines der wichtigsten Kriterien für eine gute Entscheidungsfindung, da sich diese direkt auf die Ergebnisse auswirkt.

Ein häufiges Problem ist beispielsweise das Fehlen von einzelnen Datenpunkten, die ein Ergebnis verfälschen können. Ein weiterer wichtiger Aspekt ist, dass Unternehmen immer mehr operative Systeme, wie ERP-, HR- oder CRM-Systeme, zur Auswertung aktueller Kennzahlen nutzen und auch auf operative Schwachstellen hin analysieren. Das Problem dabei ist, dass diese Systeme primär für das operative Tagesgeschäft konzipiert sind. Dies macht eine schnelle Analyse dieser Daten unter den Gesichtspunkten der Datenvalidität und Konformität in Bezug auf die Analyse schwierig. Dies liegt häufig darin begründet, dass Daten nicht richtig interpretiert werden können oder dass die einzelnen Daten aus dem operativen System nur durch eine umfassende Vorbereitung und Zusammenführung von Datenmodellen zu einem brauchbaren Datensatz zusammengeschlossen werden können. Hierbei kann es wiederum zu Fehlinterpretationen in den entsprechenden Pipelines kommen.

Wie steigen Sie in datengetriebene Projekte ein und schaffen einen vertrauensvollen Start?

Am wichtigsten in Bezug auf datengetriebene Projekte sind die Erwartungshaltung und die Zielformulierung am Anfang des Projektes. Nur wenn der Analysezweck eindeutig und unmissverständlich zwischen den Beteiligten abgestimmt wurde, kann ein solches Projekt zum Erfolg werden. Bei der tieferen Betrachtung der Daten können Verantwortliche somit schnell feststellen, ob sie das Projektziel bereits so erreicht können, ob sie noch weitere Daten in die Analyse miteinbeziehen oder die Ziele sogar neu ausrichten müssen. Wir schaffen dies in unseren Projekten durchweg mit einem prozessgetriebenen Ansatz. Wir schauen uns gemäß der Zielsetzung auch den damit verbundenen Geschäftsprozess sowie die damit einhergehenden IT-Systeme an, die letztlich als Datenquelle dienen.

So kann schnell festgestellt werden, welche die relevanten Datenquellen sind und wie diese in Bezug auf das Analyseziel zu interpretieren sind. Sind diese initialen Schritte erfolgt, können Unternehmen mit der Anwendung von neusten Analysetechniken ein zufriedenstellendes Ergebnis erreichen. Anfangs ist es wichtig, durch eine schnelle und einfache statistische Analyse der einzelnen Datenquellen mit dem Kunden in den Austausch zu kommen. Um ein besseres Verständnis bzgl. der Daten zu bekommen, helfen oft gezielte Nachfragen bezüglich Interpretierbarkeit der Daten. Viele Fragen in Bezug auf die Datenqualität können Sie nach diesen ersten Schritte schon beantworten.

Wie kommunizieren Sie plakativ mit Ihren Kunden über Daten und Ziele?

Anhand des zugrundeliegenden Geschäftsprozesses. Dabei interessieren uns vor allem Fragen wie: Ist dieser Prozess geeignet? Sind die Kennzahlen sinnvoll? Wie sind die Kennzahlen im Kontext der Gesamtunternehmensperformance zu sehen? Müssen Unternehmen eventuell weitere Kennzahlen berücksichtigen? Letztlich eruieren wir auch, ob die richtigen Datenquellen vorhanden sind. Dazu nutzten wir die Modellierung der Prozesse und der entsprechende Datenquellen sowie sogenannte Data Dictionaries. Mit der Beantwortung dieser Fragen und Leitlinien (ein Auszug) wird schon innerhalb des ersten Workshops mit dem Kunden schnell klar, wo wir gemeinsam stehen und wie die nächsten Schritte aussehen.

Daten sind das Öl des 21. Jahrhunderts

Wie kommen Sie zu einer vollständigen, validen Einschätzung der Ausgangsdaten für das Projekt?

Abseits der fachlichen Fragestellung und der technischen Gegebenheiten werden konkrete und vollständige Aussagen erst nach einer kurzen Vorab-Analyse möglich. Dazu verlangen wir von Kunden einen Auszug aus den Daten und prüfen die definierten Anforderungen auf Machbarkeit. Im ersten Schritt führen wir mittels Analytics-Plattformen grundlegende Auswertungen selbst durch. Außerdem nutzten wir die Analytic-Process-Automation-Software von Inspirient, einem Unternehmen aus dem Scheer Innovation Network, um schnelle Analysen automatisiert vornehmen zu können. So können wir schnell Aussagen und Potenziale in Bezug auf die Datenqualität treffen.

Welche Funktionen wünschen Sie von Software zur Verbesserung von Datenqualität?

Ich würde mir wünschen, dass künftig mehr Methoden der Künstlichen Intelligenz in die Tools zur Datenanalyse einfließen, sodass Unternehmen den eigentlichen Data-Science-Prozess (speziell in Bezug auf Datenqualität) weiter automatisiert können. Dadurch können Unternehmen die Zielsetzungen eines Projektes und die vorliegenden Datenquellen mittels KI analysieren und eine Tendenz zur Machbarkeit geben. Dies ist aktuell noch mit relativ hohen manuellen Arbeiten sowie vielen Abstimmungen mit dem internen oder externen Kunden verbunden. Durch den Einsatz von automatisierten Analysen mittels Künstlicher Intelligenz könnten Unternehmen somit schon direkt erste Fragestellungen automatisiert beantworten. Erste Funktionen dieser Art werden abseits der Inspirient-Software auch durch die Microsoft Power BI Plattform bereitgestellt. Dies wäre nicht nur eine große Erleichterung für zukünftige Projekte, sondern auch sehr wichtig, um die täglich neu entstehenden Daten auch nachhaltig und effizient analysieren zu können.