Lesen sie hier den Beitrag:

Machine Learning: Garbage in, garbage out

Während mathematische Analyseverfahren mit inkonsistenten Daten zurechtkommen, ist bei Machine Learning große Datensorgfalt gefragt. Beide Methoden funktionieren sehr unterschiedlich und haben verschiedene Anforderungen und Anwendungszwecke. Worauf beim Einstieg in die Verwendung dieser Technologien in Bezug auf die Datengrundlage zu achten ist, lesen Sie hier.

Machine Learning: Garbage in, garbage out

Die Datenanalyse – oder auch „Data Analytics” – ist eine wichtige Säule der Digitalisierung. Ihr Lebenselixier ist nicht die größtmögliche Datenmenge, sondern die Güte der Eingangsdaten. Und genau hier liegt das Problem: Die Praxis zeigt, dass das verwendete Datenmaterial oft fehlerbehaftet oder unvollständig ist. Trotzdem starten viele Unternehmen mit Data Analytics durch. Doch macht das wirklich Sinn? Ja, wenn es sich um mathematische Analyseverfahren handelt. Nein, wenn es um Machine Learning geht.

Machine Learning verzeiht keine Datenprobleme

Alles was unter den Begriff „Machine Learning” fällt, basiert auf der Idee, dass ein System mit bekannten Daten trainiert wird und nach der Trainingsphase bei einer neuen Situation die richtige Antwort liefert. Beispiel: Das System ist in der Lage, eine Katze in einem Bild zu erkennen.

Fehlen Eingangsdaten oder sind sie unvollständig, ist keinerlei Training zielführend. Bezogen auf das obige Beispiel bedeutet das, dass das System vorhandene Katzen übersieht. Es braucht mehr Dateninput, um zu lernen, was eine Katze charakterisiert.

Fehlerhafte Eingangsdaten wirken sich ebenfalls desaströs auf Machine-Learning-Projekte aus: Bleiben fehlerhafte Daten unentdeckt, wird ein System trainiert, welches in Zukunft falsche Ergebnisse liefern wird. Um beim obigen Beispiel zu bleiben: Das System erkennt nicht nur Katzen als solche, sondern identifiziert auch Hunde und Stühle als Katzen. Werden die Ergebnisse ohne Prüfung direkt weiterverarbeitet, zieht sich schlussendlich der Fehler durch viele Stufen des Geschäftsprozesses. Je später der Fehler erkannt wird, desto kostenintensiver fällt seine Beseitigung aus. Ergo: Das Einspeisen fehlerhafter Daten ist bei Machine Learning hoch riskant und muss unbedingt vermieden werden.

Tendenziöse Eingangsdaten haben ebenfalls ihre Tücken: Der Spruch „Traue keiner Statistik, die du nicht selbst gefälscht hast” ist landläufig bekannt. Dahinter steckt nichts anderes, als dass man durch die geschickte Auswahl an Basisdaten das Ergebnis stark beeinflussen kann. Im obigen Beispiel erkennt das System nur weiße Katzen als solche; normale Hauskatzen fallen durch das Raster.

Fazit:

Machine Learning macht ausschließlich mit einer sehr hohen Datenqualität Sinn – alles andere ist reine Zeit- und Geldverschwendung. Bevor man aktiv in das Machine Learning einsteigt, ist es also zwingend notwendig, das Grunddatenmanagement soweit zu optimieren, dass konsistente Daten vorliegen. Die Erfahrung erfolgreicher Machine Learning Projekte zeigt, dass 80 % des Gesamtaufwandes in der Datenvorbereitung liegen.

Mathematische Analyseverfahren haben Nachsicht

Mathematische Analyseverfahren verfolgen ein anderes Ziel als das Machine Learning: Sie untersuchen Daten nach gewissen Strukturen oder Zusammenhängen/Korrelationen und erlauben damit Prognosen. So kann beispielsweise die Angemessenheit von Einkaufs- und Verkaufspreisen per Regressionsverfahren analysiert werden. Zudem ist es möglich, Preisprognosen für die Zukunft abzugeben („Das Beschaffungsobjekt mit diesen Spezifikationen wird im Einkauf X Euro kosten”).

Foto: Ergebnisdarstellung einer Preisanalyse mit mathematischem Analyseverfahren. Bildquelle: Saphirion AG

 

Generell gilt:

Im Gegensatz zum Machine Learning erheben mathematische Verfahren keinen Anspruch auf Datenkonsistenz, erfordern jedoch ein iteratives Vorgehen mit Verifikation der Analyseergebnisse (s. u. „Fazit”). Die Ergebnisqualität entsteht durch Testen, Bereinigen und Auditieren der genutzten Daten in jeder Phase der Analyse.

Fehlende oder unvollständige Eingangsdaten stellen für mathematische Analyseverfahren aus zwei Gründen kein Problem dar: Einerseits lässt sich die Art der Analyse flexibel am Vorhandensein einzelner Parameter ausrichten. Andererseits kommen die mathematischen Verfahren auch mit erheblich kleineren Datenmengen zu validen Ergebnissen, sodass die lückenhaften Datensätze im Vorfeld einfach aussortiert werden können.

Wirken sich fehlerhafte Eingangsdaten gravierend auf das Analyseergebnis aus, so lassen sie sich einfach als solche entlarven: Das Analyseergebnis wirkt im Rahmen der Verifikation schon auf den ersten Blick falsch.

Tendenziöse Eingangsdaten würden die Ergebnisse der mathematischen Analyse verzerren. Bezieht man in die Preisanalyse beispielsweise ausschließlich die schlechtesten Angebotspreise ein (und lässt die günstigen absichtlich außen vor), erhalt man Preisprognosen, die „zu teuer” sind.

Fazit:

Bei mathematischen Analyseverfahren ist die Einstiegshürde in die Welt der Data Analytics hinsichtlich der Datenbereinigung viel geringer als beim Machine Learning. Um bei dem Beispiel der Preisanalyse zu bleiben: Mittels der mathematischen Analysemethode Non-linear Performance Pricing findet ein Einkäufer heraus, dass zwei seiner Beschaffungsobjekte aufgrund ihrer Eigenschaften eigentlich gleich viel kosten müssten – in der Realität weichen die Einkaufspreise jedoch stark voneinander ab. Jetzt geht es an die Verifikation der Ergebnisse. Der Einkäufer prüft, ob die Teile wirklich die gleichen Eigenschaften aufweisen und die Eingangsdaten dieser beiden Teile fehlerfrei sind (Beispiel: Sind wirklich beide Teile mit Gold beschichtet? Nutzen beide Teile die gleiche Gewichtseinheit? etc.). Stößt er hier auf Fehler, muss die Analyse nach erfolgter Datenkorrektur wiederholt werden. Ist kein Fehler zu finden, ist er auf einen „Hotspot” gestoßen und kann die Ergebnisse der Analyse verwenden. Tendenziöse Eingangsdaten sind jedoch auch bei der mathematischen Datenanalyse in jedem Fall zu vermeiden.

Foto: Zwei Teilenummern besitzen die gleiche Spezifikation, unterscheiden sich aber erheblich im Preis. Die Software NLPP spürt diese Gleichteile auf und ermöglicht dem Einkäufer, teure Sachnummern durch günstigere Sachnummern zu ersetzen. Bildquelle: Saphirion AG

Wann sind Daten eigentlich „perfekt”?

Die „Perfektion” ergibt sich stets im Kontext des Ziels und der jeweiligen Analysemethode. Daten, die für Anwendung A funktionieren, müssen nicht zwangsläufig für Anwendung B geeignet sein. Nur, wenn die „innere Struktur” der Daten der jeweiligen Anforderung entspricht, liefern die Verfahren auch valide und nutzbare Ergebnisse.

weitere Beiträge zum Thema:

 

Der EAS-Insider – Ihr Navigator zu einem erfolgreichem Business!

So kann Sie Business Intelligence erfolgreicher machen:

Was ist Business Intelligence?

Business Intelligence (BI) bezieht sich auf Technologien, Prozesse und Methoden, die Unternehmen nutzen, um aus Rohdaten verwertbare Informationen zu gewinnen. Diese Informationen helfen, fundierte Geschäftsentscheidungen zu treffen. BI umfasst die Erfassung, Analyse und Darstellung von Daten durch Tools und Software, die komplexe Daten in verständliche Berichte, Dashboards und Visualisierungen umwandeln.

Zu den Hauptkomponenten von BI gehören Datenanalyse, Datenmining, Berichterstellung und Performance-Management. BI-Tools ermöglichen es Unternehmen, Trends zu erkennen, operative Effizienz zu verbessern, Kundenverhalten zu verstehen und die Unternehmensstrategie zu optimieren. Durch den Einsatz von BI können Unternehmen ihre Wettbewerbsfähigkeit steigern, indem sie datengetriebene Entscheidungen schneller und präziser treffen.

Wie kann Business Intelligence ein Unternehmen digital erfolgreicher machen?

Business Intelligence (BI) macht ein Unternehmen digital erfolgreicher, indem es datenbasierte Entscheidungen erleichtert und die Effizienz steigert. BI-Tools ermöglichen die Analyse großer Datenmengen, um wertvolle Einblicke zu gewinnen und fundierte Entscheidungen zu treffen. Unternehmen können Trends erkennen, Kundenverhalten analysieren und ihre Geschäftsstrategien entsprechend anpassen. BI verbessert die operative Effizienz, indem es Engpässe identifiziert und Prozesse optimiert. Echtzeit-Dashboards bieten Transparenz und erleichtern die Überwachung der Unternehmensleistung. Dadurch können Unternehmen schneller auf Marktveränderungen reagieren und Wettbewerbsvorteile nutzen. Insgesamt stärkt BI die digitale Transformation, indem es Unternehmen hilft, agiler und zukunftsorientierter zu agieren.

Wichtige Schlagworte im Kontext von Business Intelligence:

Datenanalyse

Der Prozess der Untersuchung von Datensätzen, um Muster, Zusammenhänge und Erkenntnisse zu gewinnen, die zur Verbesserung von Geschäftsentscheidungen beitragen.

Dashboards

Visuelle Darstellungen von Daten, die Echtzeitinformationen und Metriken auf einen Blick bieten, um Entscheidungsprozesse zu unterstützen und die Leistung zu überwachen.

Datenvisualisierung

Die grafische Darstellung von Daten, die es erleichtert, komplexe Informationen verständlich zu machen und Einblicke schnell zu vermitteln.

Aktuelle Beiträge zum Thema Business Intelligence:

Unsere aktuellen Blog-Beiträge!

Das sind die aktuellen Beiträge zum Thema:

Aktuelle Beiträge zum Thema:
 

Datenanalyse

Datenanalyse bezieht sich auf die systematische Auswertung von Unternehmensdaten, um fundierte Entscheidungen zu treffen. Mithilfe spezialisierter Software werden große Datenmengen gesammelt, verarbeitet und visualisiert. Diese Analysen helfen Unternehmen, Muster zu erkennen, Geschäftsprozesse zu optimieren und künftige Trends vorherzusagen. Häufig kommen Techniken wie Data Mining, statistische Analysen und maschinelles Lernen zum Einsatz. Integriert in ERP-, CRM- oder BI-Systeme, ermöglicht die Datenanalyse eine verbesserte Effizienz, Kosteneinsparungen und Wettbewerbsvorteile, indem sie datengetriebene Einblicke liefert und die operative und strategische Entscheidungsfindung unterstützt.

Digitalisierung

Digitalisierung bezieht sich auf die Umwandlung traditioneller Geschäftsprozesse und -modelle durch den Einsatz digitaler Technologien. Dies umfasst die Integration von Softwarelösungen zur Automatisierung von Arbeitsabläufen, Verbesserung der Datenverarbeitung und Optimierung der Kommunikation. Durch Digitalisierung können Unternehmen Effizienz steigern, Kosten senken und die Qualität von Produkten und Dienstleistungen verbessern. Sie ermöglicht eine datengesteuerte Entscheidungsfindung und bietet Zugang zu Echtzeitinformationen. Unternehmenssoftware wie ERP-, CRM- und SCM-Systeme spielt eine zentrale Rolle bei der Digitalisierung, indem sie Prozesse integrieren und Transparenz schaffen. Digitalisierung fördert Innovation, steigert die Wettbewerbsfähigkeit und unterstützt Unternehmen bei der Anpassung an sich wandelnde Marktanforderungen.

 
Transparenzhinweis für Redaktionsbeitrag
Machine Learning: Garbage in, garbage out

Unternehmen

Autor