Lesen sie hier den Beitrag:

Machine Learning: Datenqualität ist das A & O – Wie Big Data dank Datenkonsistenz zu Smart Data wird

Künstliche Intelligenzen wie Machine Learning oder Deep Learning werden immer relevanter. Die wichtigste Basis dieser KI-Technologien ist und bleibt dabei die Datengrundlage. Lumir Boureanu, CEO von compacer GmbH, erklärt was beim Einsatz von Machine Learning zu beachten ist und welche Rolle Big Data dabei spielt.

Machine Learning: Datenqualität ist das A & O – Wie Big Data dank Datenkonsistenz zu Smart Data wird

Wer verstehen möchte, welche Relevanz die Konsistenz von Daten für Machine Learning hat, muss zunächst wissen, wie Machine Learning grundsätzlich funktioniert. Wichtig ist in diesem Kontext die Abgrenzung zum Deep Learning, denn diese beiden Begriffe werden vielfach miteinander verwechselt, was problematisch ist, weil sie sich nicht nur hinsichtlich der Funktionsweise, sondern auch in der Datennutzung unterscheiden.

Machine Learning wird landläufig als Teilbereich der künstlichen Intelligenz betrachtet und bezeichnet einen Vorgang, bei dem IT-Systeme in die Lage versetzt werden, auf Basis vorhandener Datenbestände und Algorithmen Gesetzmäßigkeiten zu erkennen und Lösungen zu entwickeln.

Deep Learning geht noch einen Schritt weiter: Deep Learning ist ein Teilbereich des maschinellen Lernens, der sich an der Funktionsweise des menschlichen Gehirns orientiert und schlussendlich sogar in der Lage ist den Algorithmus, den er verwendet, anzupassen und zu verbessern.

Datenqualität ist das A & O

Für beide KI-Methoden ist – unabhängig von ihrer Wirkungsweise – die Datenbasis entscheidend. Deshalb ist im Vorfeld eines Machine Learning Projekts zu definieren, welche Resultate bzw. Ergebnisse angestrebt werden. Davon wiederum hängt ab, welche Daten und wie viele benötigt werden, um einen Machine Learning Prozess aufzusetzen. So kann es durchaus Machine Learning Prozesse geben, die mit wenigen Daten auskommen und trotzdem für valide Ergebnisse sorgen – beispielsweise ein Kühltransporter. Hier erkennt das System anhand der Sensorwerte, welche Temperatur herrscht und kann bei Veränderungen entsprechend reagieren. Die Herausforderung in diesem Fall ist die Konvertierung der Sensordaten zu Daten, die der Rechner verarbeiten und auswerten kann; die Datenqualität ist wichtig – die Datenmenge dagegen eher zweitranging.

Betrachtet man dagegen beispielsweise eine Gussmaschine, die aus flüssigem Kunststoff Spielzeugautos herstellt und deren Qualität mittels Ultraschall überprüft wird, so kommt recht schnell eine Vielzahl an Daten zusammen. Die Daten des Ultraschallgeräts werden so aufbereitet, dass sie verarbeitet werden und – basierend auf Algorithmen – erkannt wird, in welchem Zustand sich das gefertigte Spielfahrzeug befindet. Wichtig ist zunächst einmal regelbasiert vorzugehen, um erste Korrelationen oder Anomalien zu erkennen. Die Datenquantität hat in diesem Fall Auswirkungen auf das Ergebnis, denn die vielen Werte des Ultraschallgeräts helfen, dass der Algorithmus des Rechners kleinste Abweichungen sofort erkennt. Neben der Quantität ist allerdings die Relevanz noch viel entscheidender – sich daraufhin zu reduzieren und relevante Daten zu verarbeiten hilft am Ende des Tages mehr, als an der Vielzahl der Daten zu ersticken und den Wald vor lauter Bäumen nicht mehr zu sehen.

Dieses Beispiel zeigt, dass die Datenmenge oftmals nicht das Problem ist, denn Daten sind recht schnell erhoben. Was eher eine Herausforderung darstellt, sind die sogenannten negativen Ereignisse, die im Produktionsalltag vermieden werden sollten und von denen es folglich kaum Erhebungen gibt. Solche Fälle sollten deshalb simuliert werden, damit die Daten eingespielt werden können.

Big Data wird zu Smart Data

Bei den modernen Technologien geht es darum, heterogene Datenformate und -bestände zu konsolidieren und mittels Algorithmen bestimmte Strukturen aus der Datenmenge zu extrahieren, so dass sich daraus spezifische smarte Daten und Informationen für den Nutzer ableiten lassen, die einen Mehrwert erzeugen. Diese Vorgehensweise hat neben der Auswertbarkeit einen weiteren Vorteil: Weil man von einer großen Datenmenge (Big Data) ausgeht, fällt es nicht sofort ins Gewicht, wenn eine kleine Anzahl davon Fehler aufweist. Bei einer geringen Datenmenge wiederum, hätten Fehler gravierende Folgen. Dennoch spielt für diesen Konsolidierungsprozess die Datenkonsistenz grundsätzlich eine zentrale Rolle, denn nur wenn die den Algorithmen zugrundeliegende Datenbasis einer guten Qualität entspricht, kann Machine Learning auch für gute Ergebnisse sorgen.

In 4 Phasen zu konsistenten Daten

Wie aber funktioniert dieser Prozess und wie lassen sich konsistente Daten erzeugen? Grundsätzlich werden dabei vier Phasen unterschieden: Die Datenerfassung, Basisverständnis und Interpretation der Daten, die Aufbereitung und der Transport für Analysezwecke.

1. Datenerfassung

Um Daten erfassen zu können, gibt es – je nach Alter und Zustand der Maschine – unterschiedliche Szenarien. In einigen Fällen kann man mit bereits vorhandenen Signalen arbeiten oder es müssen Sensoren installiert werden. Oftmals können aber bereits Daten über Schnittstellen direkt aus der Maschinensteuerung gewonnen und in ein IIoT Gateway geschrieben werden.

2. Basisverständnis und Interpretieren der Daten

Nachdem die Daten gewonnen wurden, muss zunächst semantisch verstanden werden, welche verschiedenen Werte, Angaben oder Daten für was stehen. Nur wenn ich weiß, dass ein Sensorwert für eine bestimmte Temperatur steht, lässt sich der einzelne Wert einordnen. Was bei genanntem Temperaturbeispiel sehr einfach anmutet, ist bei anderen Aufgabenstellungen durchaus komplexer. Die Dateninterpretation ist wichtig, denn das ist die Grundlage für die Algorithmen, die dann wiederum Basis für das Machine Learning sind. Hier kommt aber auch die menschliche Erfahrung ins Spiel, denn letztendlich muss bewertet werden, was z.B. ein bestimmter Grenzwert oder ein Widerstand aussagt, um mit ihm etwas anfangen zu können.

3. Aufbereitung der Daten

Schließlich sind die Daten aufzubereiten und zu aggregieren, damit die verschiedenen Werte einer oder mehrerer Maschinen konsistent und vereinheitlicht werden. Für diesen Konsolidierungsprozess gibt es bereits Lösungen und Plattformen, z.B. edbic, die Datenformate entsprechend für das Zielsystem umwandeln und auf Basis von Regeln interpretieren.

4. Transport der Daten für Analysezwecke

Ein IIoT Hub bereitet die Daten so auf, dass verschiedene Auswertungen möglich sind. Außerdem dient er als „Transporteur“, um sie z.B. in ein vorhandenes ERP- oder MES-System zu überspielen, in ein Analytics Tool oder sogar in Siemens Mindsphere, IBM Watson oder Microsoft Azure und ähnliche Systeme. Erst wenn das alles umgesetzt wurde und Datenkonsistenz vorhanden ist, kann man den Algorithmus anwenden und den Machine Learning Prozess abschließen.

Machine Learning, Deep Learning – was kommt dann?

Schon heute zeichnet sich der Trend einer zunehmenden Nutzung von Algorithmen ab. Es wird nicht bei Machine Learning und Deep Learning bleiben, sondern es werden sich weitere Formen von KI entwickeln. Die Datenqualität und -konsistenz ist dabei eine wichtige Voraussetzung, insbesondere vor dem Hintergrund, dass sogenannte „schlechte Daten“ nicht ohne weiteres aus einem Machine Learning Prozess wieder herausgenommen werden können. Der Grund: Machine Learning baut konsequent und konsistent aufeinander auf. Würde man dem System Daten entziehen, die bisher Teil der Berechnung waren, würde alles in sich zusammenfallen.


Autor: Lumir Boureanu, CEO von compacer GmbH

Autor: Lumir Boureanu

weitere Beiträge zum Thema:

 

Der EAS-Insider – Ihr Navigator zu einem erfolgreichem Business!

So kann Sie Business Intelligence erfolgreicher machen:

Was ist Business Intelligence?

Business Intelligence (BI) bezieht sich auf Technologien, Prozesse und Methoden, die Unternehmen nutzen, um aus Rohdaten verwertbare Informationen zu gewinnen. Diese Informationen helfen, fundierte Geschäftsentscheidungen zu treffen. BI umfasst die Erfassung, Analyse und Darstellung von Daten durch Tools und Software, die komplexe Daten in verständliche Berichte, Dashboards und Visualisierungen umwandeln.

Zu den Hauptkomponenten von BI gehören Datenanalyse, Datenmining, Berichterstellung und Performance-Management. BI-Tools ermöglichen es Unternehmen, Trends zu erkennen, operative Effizienz zu verbessern, Kundenverhalten zu verstehen und die Unternehmensstrategie zu optimieren. Durch den Einsatz von BI können Unternehmen ihre Wettbewerbsfähigkeit steigern, indem sie datengetriebene Entscheidungen schneller und präziser treffen.

Wie kann Business Intelligence ein Unternehmen digital erfolgreicher machen?

Business Intelligence (BI) macht ein Unternehmen digital erfolgreicher, indem es datenbasierte Entscheidungen erleichtert und die Effizienz steigert. BI-Tools ermöglichen die Analyse großer Datenmengen, um wertvolle Einblicke zu gewinnen und fundierte Entscheidungen zu treffen. Unternehmen können Trends erkennen, Kundenverhalten analysieren und ihre Geschäftsstrategien entsprechend anpassen. BI verbessert die operative Effizienz, indem es Engpässe identifiziert und Prozesse optimiert. Echtzeit-Dashboards bieten Transparenz und erleichtern die Überwachung der Unternehmensleistung. Dadurch können Unternehmen schneller auf Marktveränderungen reagieren und Wettbewerbsvorteile nutzen. Insgesamt stärkt BI die digitale Transformation, indem es Unternehmen hilft, agiler und zukunftsorientierter zu agieren.

Wichtige Schlagworte im Kontext von Business Intelligence:

Datenanalyse

Der Prozess der Untersuchung von Datensätzen, um Muster, Zusammenhänge und Erkenntnisse zu gewinnen, die zur Verbesserung von Geschäftsentscheidungen beitragen.

Dashboards

Visuelle Darstellungen von Daten, die Echtzeitinformationen und Metriken auf einen Blick bieten, um Entscheidungsprozesse zu unterstützen und die Leistung zu überwachen.

Datenvisualisierung

Die grafische Darstellung von Daten, die es erleichtert, komplexe Informationen verständlich zu machen und Einblicke schnell zu vermitteln.

Aktuelle Beiträge zum Thema Business Intelligence:

So kann Sie künstliche Intelligenz erfolgreicher machen:

Was ist künstliche Intelligenz?

Im Kontext von Unternehmenssoftware bezieht sich künstliche Intelligenz (KI) auf Technologien, die Geschäftsprozesse automatisieren und optimieren, indem sie menschenähnliche Intelligenz auf spezifische Aufgaben anwenden. KI-gestützte Software kann große Datenmengen analysieren, Muster erkennen und Vorhersagen treffen, um fundierte Entscheidungen zu ermöglichen. Anwendungen umfassen Chatbots für den Kundenservice, die Automatisierung von Routineaufgaben, personalisierte Marketingstrategien und vorausschauende Wartung. KI verbessert die Effizienz und Genauigkeit, reduziert Kosten und steigert die Produktivität. Durch die Integration von KI in Unternehmenssoftware können Unternehmen Wettbewerbsvorteile erlangen, da sie schneller und agiler auf Marktveränderungen reagieren können, während sie gleichzeitig die Kundenerfahrung verbessern.

Wie kann künstliche Intelligenz ein Unternehmen digital erfolgreicher machen?

Künstliche Intelligenz (KI) kann ein Unternehmen digital erfolgreicher machen, indem sie Prozesse automatisiert, Entscheidungsfindung verbessert und Effizienz steigert. KI-gestützte Analysen bieten tiefe Einblicke in Daten, ermöglichen präzisere Vorhersagen und helfen, Geschäftsstrategien zu optimieren. Durch Automatisierung können Routineaufgaben effizienter erledigt werden, was Kosten senkt und menschliche Ressourcen für strategische Aufgaben freisetzt. KI verbessert auch die Kundenerfahrung durch personalisierte Empfehlungen und schnelle Reaktionen auf Anfragen. In der Produktion optimiert KI die Lieferkette und verringert Ausfallzeiten durch vorausschauende Wartung. Insgesamt fördert KI Innovation, Agilität und Wettbewerbsfähigkeit, indem sie Unternehmen befähigt, schneller und intelligenter auf Marktveränderungen zu reagieren.

Wichtige Schlagworte im Kontext von künstliche Intelligenz:

Automatisierung

Der Einsatz von KI, um wiederkehrende Aufgaben in Unternehmensprozessen zu automatisieren, wodurch Effizienz gesteigert und menschliche Ressourcen für strategische Aufgaben freigesetzt werden.

Predictive Analytics

Die Verwendung von KI-Techniken, um aus Daten Vorhersagen über zukünftige Ereignisse oder Trends zu treffen, die Unternehmen helfen, bessere Geschäftsentscheidungen zu treffen.

Chatbots

KI-gesteuerte Programme, die in Unternehmenssoftware integriert sind, um Kundenanfragen automatisiert zu beantworten, den Kundenservice zu verbessern und die Benutzererfahrung zu optimieren.

Aktuelle Beiträge zum Thema künstliche Intelligenz:

Unsere aktuellen Blog-Beiträge!

Das sind die aktuellen Beiträge zum Thema:

Aktuelle Beiträge zum Thema:
 

DAS EAS-MAG-Glossar für den Beitrag:

Machine Learning: Datenqualität ist das A & O – Wie Big Data dank Datenkonsistenz zu Smart Data wird

EAS-MAG-Glossar:

Big Data

Big Data bezeichnet riesige, komplexe Datenmengen, die mit traditionellen Methoden schwer zu verarbeiten sind. Unternehmen nutzen Big Data, um Kundenverhalten zu analysieren, Geschäftsprozesse zu optimieren und fundierte Entscheidungen zu treffen. Durch die Analyse und Verarbeitung solcher Daten können wertvolle Erkenntnisse gewonnen werden. Typische Tools für Big Data umfassen Datenmanagement, maschinelles Lernen und Echtzeit-Analysen. Die Fähigkeit, große Datenmengen effizient zu verarbeiten, verschafft Unternehmen Wettbewerbsvorteile durch personalisierte Angebote, vorausschauende Wartung und verbesserte Geschäftsstrategien.

KI - Künstliche Intelligenz

Künstliche Intelligenz (KI) bezeichnet die Fähigkeit von Computern und Maschinen, Aufgaben zu übernehmen, die normalerweise menschliche Intelligenz erfordern. Dazu gehören Lernen, Problemlösung, Mustererkennung und Entscheidungsfindung. KI-Systeme nutzen Algorithmen und Daten, um eigenständig zu lernen und sich zu verbessern. Beispiele sind maschinelles Lernen, neuronale Netze und natürliche Sprachverarbeitung. KI findet Anwendung in vielen Bereichen, darunter autonome Fahrzeuge, Spracherkennung, personalisierte Empfehlungen und medizinische Diagnosen. Sie bietet das Potenzial, Effizienz und Innovation zu steigern, bringt jedoch auch ethische Herausforderungen und Diskussionen über Datenschutz und Arbeitsplatzveränderungen mit sich. KI verändert die Art und Weise, wie wir leben und arbeiten.

 
Transparenzhinweis für Redaktionsbeitrag
Machine Learning: Datenqualität ist das A & O – Wie Big Data dank Datenkonsistenz zu Smart Data wird

Unternehmen

compacer

Hinter compacer steckt ein dynamisches und motiviertes Team, dessen Kernkompetenz seit über 20 Jahren auf dem Gebiet der Integration und Automatisierung geschäftskritischer Prozesse liegt. Die umfassenden Lösungen für den formatunabhängigen Datenaustausch zwischen IT-Systemen, Maschinen und Geräten sorgen für schnelle, zuverlässige Geschäftsprozesse. Für internationale Konzerne und mittelständische Unternehmen konzipiert und realisiert compacer Smart Services Lösungen „made in Germany“ aus den Bereichen EDI, e-Invoicing, Retrofit sowie Predictive Maintenance und bringt die zukunftsweisende Datenbank-Technologie Blockchain zum Einsatz. In den zahlreichen Projekten hat compacer eine nachhaltige nationale wie internationale Expertise gesammelt. Die Kunden schätzen compacer als unabhängigen Technologiepartner, der mit dem Auf- und Ausbau sicherer Ecosysteme ihre Wertschöpfungskette optimiert.

Autor

Lumir Boureanu

Lumir Boureanu ist Geschäftsführer und CTO der compacer GmbH. Als studierter Informatiker, Wirtschaftsinformatiker und MBA entwickelt er neue Ideen, Visionen und Strategien in Verbindung mit digitalen Geschäftsmodellen der Zukunft. Seine Leidenschaft für Architecting, Implementierung und Verbesserung kritischer Business Prozesse bildet eine stabile Grundlage für Themen wie Smart Services und Industrie 4.0. Als ehemals aktiver Schachspieler weiß er sehr wohl, wie wichtig es ist, immer einige Züge im Voraus zu planen und mehrere Varianten bereit zu halten.