ERP-Spezialist unterstützt Industrie-4.0-Prototyp mit Datenmodell

Asseco Solutions bereichert Forschungsprojekt BigPro durch langjährige Erfahrung: „Big Data ohne Kontext nützt gar nichts.“ So geht man mit extrem großen Datenmengen um!

ERP-Spezialist unterstützt Industrie-4.0-Prototyp mit Datenmodell

Das wahre Gold des digitalen Zeitalters sind Daten. So wächst auch im Industriekontext mit steigender Vernetzung von Maschinen und Anlagen das Datenaufkommen kontinuierlich an. Doch wie lassen sich die gesammelten Datenmassen in der Fertigung tatsächlich sinnvoll nutzen? Und welche Voraussetzungen müssen dafür geschaffen werden? Im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekts „BigPro“ untersuchte das FIR an der RWTH Aachen zwischen September 2014 und November 2017 gemeinsam mit zahlreichen Projektpartnern, wie Big-Data-Technologien das Störungsmanagement in der Produktion sinnvoll unterstützen können. Teil des Konsortiums war auch der Karlsruher ERP-Spezialist Asseco Solutions, der das Forschungsprojekt mit seiner Praxisexpertise zur Analyse und Auswertung von übertragenen Maschinendaten unterstützte. Unter anderem entwickelten die Asseco-Experten ein Datenmodell, das die eingehenden Datenmassen durch die Einbettung in Kontextinformationen unmittelbar für die Praxis nutzbar machte. Der zusammenfassende Abschlussbericht des Forschungsprojekts wurde vor wenigen Wochen veröffentlicht.

Im Zentrum von BigPro stand die Entwicklung eines Prototypen, der auf Basis von Big Data das Reaktionsmanagement bei Störungen verbessern und damit die durch Maschinenausfälle entstehenden Kosten senken sollte. Dazu entwickelten die Projektbeteiligten eine Plattform, die heterogene Datenströme aus unterschiedlichsten Quellen, wie angebundene Anlagen, im Einsatz befindliche IT-Systeme oder Rückmeldungen von Maschinenführern, erfassen, verarbeiten und miteinander in Beziehung setzen konnte.

Auf dieser Basis war das System anschließend in der Lage, die jeweiligen Datenkonstellationen in Echtzeit unterschiedlichen Störungsmustern zuzuordnen und so bei sich anbahnender Übereinstimmung bereits im Vorfeld Maßnahmen vorzuschlagen, um einem tatsächlichen Produktionsausfall der Maschine zuvorzukommen. Die Wartungsprozesse selbst unterstützte das System in Form eines Maßnahmenkatalogs, dessen Vorschläge je nach historischer Erfolgsquote im jeweiligen Kontext dynamisch priorisiert sowie bei Bedarf durch die Dokumentation neuer Lösungsansätze erweitert wurden. Zum Einsatz kam der Prototyp sowohl in der Demonstrationsfabrik Aachen als auch in realen Anwendungsszenarien bei den Industriepartnern Bosch und Auto Heinen.

Den Datenmassen einen Sinn geben

Christian Leopoldseder, Managing Director Austria bei der Asseco Solutions erklärt:

„Wenn es um innovative Anwendungsszenarien in der digitalen Fabrik geht, dauert es meist nicht lange, bis das Zauberwort ‚Big Data‘ fällt. Dabei zeigt die Praxis, dass die Erfassung großer Datenmengen allein meist nicht für die gewünschten Zwecke ausreicht. Mit dieser Problematik sahen sich auch die Projektbeteiligten bei BigPro konfrontiert: Die Maschinen übertrugen in Echtzeit ihre Identifikation sowie unterschiedliche technische Werte. Doch mit diesen isolierten Daten allein ließ sich im ersten Schritt nicht viel anfangen. Um wirklich praxisrelevante Schlussfolgerungen abzuleiten, ist Kontext nötig: Wo steht die besagte Maschine? Wann war ihre letzte Wartung? Trat die Störung bereits in der Vergangenheit auf? Wie wurde diese damals gelöst? Wie lange hat das gedauert? Ohne eine solche Einordnung nützen die Datenmassen eines Big-Data-Szenarios gar nichts. Nur wenn sie automatisiert und in Echtzeit mit Daten aus anderen Quellen in Beziehung gesetzt werden, entsteht ein unmittelbarer Nutzen für die Praxis.“

Asseco unterstützt mit Industrie-4.0-Expertise

Um den Datenmassen im BigPro-Projekt eine entsprechende Bedeutung zu geben, entwickelte die Asseco Solutions eine Datenhaltungsschicht, welche die eingehenden technischen Datenströme mit Metadaten aus weiteren Systemen anreicherte und so zu unmittelbar nutzbaren Informationen machte. Als Grundlage hierfür konzipierte Asseco auf Basis seiner ERP-Expertise eine zentrale Datenhaltung, den BigPro DataStore, der als Schnittstelle zwischen allen beteiligten Systemen fungierte. Die Informationen über mögliche Maßnahmen zur Störungsbehebung wurden ebenfalls in dem von Asseco entwickelten DataStore hinterlegt. Auch hier bildete die Kombination mit Daten aus weiteren Quellen die Basis für die dynamische Priorisierung der Vorschläge: Indem im BigPro-System dokumentiert wurde, welche Maßnahme bei welcher Störung am häufigsten gewählt wurde und zum Erfolg führte, konnte das System bei jedem Wartungseinsatz die erfolgversprechendsten Maßnahmen automatisiert hervorheben.

Bereits seit einigen Jahren legt die Asseco einen starken Fokus auf Themen wie Digitalisierung und smarte Fabrik. Die Grundlage für die Entwicklung des Datenmodells lieferte daher die hauseigene Industrie-4.0-Expertise aus bestehenden Kundenprojekten. So bietet die Asseco-Lösung SCS Kunden unter anderem die Möglichkeit, ihre Maschinen an die Cloud anzubinden und deren Betriebsdaten – beispielsweise zu Predictive-Maintenance-Zwecken – in Echtzeit zu analysieren. Die hierbei gesammelte Praxiserfahrung zur Verarbeitung und Auswertung von übertragenen Maschinendaten konnte der ERP-Spezialist in das BigPro-Forschungsprojekt miteinfließen lassen. So wurden zum Design des DataStores dasselbe Tool und dieselben Methoden verwendet, die auch in der Praxis in SCS zum Einsatz kommen.

Spezialwissen des Kunden unerlässlich

Marco Bux, Senior Product Manager bei Asseco und federführend für die Entwicklung der BigPro-Datenmodelle, ergänzt:

„Spiegelbildlich dazu haben auch wir im BigPro-Projekt viel gelernt und neue Erkenntnisse gewonnen, die wir nun in die Weiterentwicklung von SCS und APplus zurückfließen lassen wollen – beispielsweise was Möglichkeiten betrifft, in der Praxis die Brücke zum Internet der Dinge zu schlagen. Auch die Bedeutung von Kundenexpertise wurde uns im Forschungsprojekt vor Augen geführt. So waren wir in einer der Praxisanwendungen mit einem Temperatur- und Druckverlauf in den Daten konfrontiert, den wir uns zunächst nicht erklären konnten. In einem solchen Fall ist das spezifische Fachwissen des Kunden unerlässlich, der selbst der beste Experte für seine Fertigung ist und daher weiß, wie einzelne Daten zu verstehen und zu deuten sind. Zusätzlich zum Kontext durch weitere Datenquellen ist damit auch das Spezialwissen des Kunden eine unerlässliche Komponente, Daten in Big-Data-Szenarien sinnvoll zu interpretieren und für die Praxis nutzbar zu machen.“