Bild: Moon Light PhotoStudio/shutterstock

Industrie 4.0: Big Data verhindert Ausfall von Maschinen

Industrie 4.0 ist Big Data in Reinform. Durch die vernetzte Produktion entsteht eine Fülle an Informationen zum Zustand von Maschinen und Anlagen. Über eine Analyse dieser Daten können Unternehmen ihre Produktionsprozesse optimieren und Maschinen vorausschauend warten. Wesentliche Grundlagen dafür sind Predictive Analytics und eine leistungsfähige High-Performance-Computing-Plattform.

Sensordaten aus Industrieanlagen, Geo- und Telematikdaten von Fahrzeugen, RFID-Daten aus der Logistikkette – mit der Digitalisierung aller kaufmännischen und technischen Prozesse wächst die Datenmenge in Unternehmen weiter an. Aus Terabyte werden Petabyte und bald auch Zettabyte. Richtig aufbereitet, gefiltert und bewertet bilden diese Daten eine unverzichtbare Informationsquelle für jedes Unternehmen.

Das gilt auch für Fertigungsunternehmen, insbesondere im Umfeld von Industrie 4.0. Der Begriff steht für die vernetzte, sensorgestützte und nahezu selbststeuernde Produktion über intelligente Maschinen, Werkstücke und Systeme. Da Maschinen, Sensoren und Produkte miteinander gekoppelt sind, entsteht neben Prozess- und Produktdaten eine Fülle an Daten zum Status einer Maschine oder Anlage. Durch intelligente Überwachung und Analyse der Fertigungs-Daten können auch mittelständische Unternehmen nahezu in Echtzeit auf veränderte Rahmenbedingungen reagieren und ihre Produktion entsprechend optimieren. Über die digitale Fabrik hinaus lassen sich die Produktions- und Logistikprozesse zudem mit externen Zulieferern und Partnern vernetzen und effizienter gestalten.

Bei der Analyse der großen Datenmengen profitieren Industrie-Unternehmen von zwei Big-Data-Trends: Zum einen von Predictive Analytics mit seinem prognostischen Ansatz und Blick in die Zukunft. Typisches Anwendungsszenario hier ist Predictive Maintenance, sprich vorausschauende Wartung und Instandhaltung, um den Ausfall einer Maschine proaktiv zu verhindern. Zum anderen ermöglicht das Zusammenwachsen von Big Data und High Performance Computing (HPC) eine schnellere Auswertung der Daten.

Predictive Analytics blickt in die Zukunft

Die meisten bisher für die Datenanalyse eingesetzten Business-Intelligence (BI)-Lösungen befassen sich überwiegend mit dem Geschehen in der Vergangenheit und dessen Auswirkungen auf die Gegenwart. Sie beantworten Fragen wie „Was ist wann passiert?“, zur Häufigkeit oder den Ursachen eines Ereignisses. Auf diese Weise lassen sich auch in Echtzeit Muster erkennen.

Der nächste Schritt bei Big-Data-Analysen geht in Richtung Predictive Analytics, sprich zukunftsorientierte Prognosen auf Basis von Data Mining, maschinellem Lernen und anderen statistischen Methoden. Ziel ist es, nicht nur die Frage „Was war?“ zu beantworten, sondern auch die Frage „Was wird sein?“ und damit Vorhersagen über die Wahrscheinlichkeit von zukünftigen Ereignissen zu liefern.

Im Rahmen von Predictive Analytics ist es unerlässlich, Daten aus unterschiedlichsten Quellen zu aggregieren und zu analysieren. Sämtliche Datenquellen wie Maschinen, Prozesse oder Produkte und Systeme wie ERP, CRM oder BI müssen miteinander integriert werden. Es geht darum, die Daten zu vereinheitlichen und sinnvoll miteinander zu verknüpfen.

Predictive Analytics nutzt Algorithmen oder anspruchsvolle statistische und mathematische Verfahren, um in den Datenmengen Zusammenhänge und vor allem Trends zu erkennen. Neben klassischen Data-Mining-Methoden wie Clustering oder Regressionsanalyse sind dies auch Simulationsverfahren, Elemente der Spieltheorie oder maschinelles Lernen.

Bei letzterem lernen die Algorithmen im Laufe der Zeit aus Beispielen und vorliegenden Daten, erzeugen ein Datenmodell und setzen dieses für Prognosen oder Entscheidungen ein. Wichtig: Die Daten müssen natürlich alle Kriterien für hohe Qualität erfüllen wie Vollständigkeit, Korrektheit, Einheitlichkeit, Konsistenz oder Aktualität.

Predictive Maintenance verhindert den Ausfall von Maschinen

Ein wichtiges Anwendungsbeispiel von Predictive Analytics im Umfeld von Industrie 4.0 ist Predictive Maintenance, sprich vorausschauende Wartung oder Instandhaltung. Basis dafür sind Maschinen- und Sensordaten zum Status einer Anlage wie Leistung, Temperatur, Umdrehungen und Auslastung, die (meist) an eine Cloud-Plattform übertragen werden.

Die Big-Data-Lösung analysiert die Kenndaten und erkennt so Fehlermuster sowie qualitativ minderwertige Komponenten – und kann Fehler vorhersagen. Der Service kann dadurch rechtzeitig reagieren und einen kostspieligen Ausfall der Maschine proaktiv verhindern, indem er beispielsweise ein neues Ersatzteil einbaut oder die Wartungsarbeiten vorzieht. Zudem werden Verschleißteile wie Luft- oder Wasserfilter nur dann ersetzt, wenn dies wirklich notwendig ist – und nicht mehr routinemäßig bei regelmäßigen Wartungsintervallen. Das spart ebenfalls Kosten. Der Hersteller der Anlagen kann diese Daten entweder selbst nutzen oder seinen Kunden zur Verfügung stellen.

Analyse unterstützt Entscheidungen zu Serviceverträgen

Predictive Analytics hilft zudem bei der Entscheidung über die Laufzeit und Konditionen bei der Verlängerung von Serviceverträgen. Hier sind anhand des Zustands einer Anlage oder Maschine präzise Prognosen zu Risiken, Ausfällen und Wartungsbedarf möglich. Diese helfen bei der Entscheidung, ob der Vertrag zu den bisher für den Kunden Konditionen beibehalten oder geändert wird.

Mit Hilfe der Echtzeit-Daten lassen sich auch die Prozesse und Produktqualität durch automatisierte Kontrolle der Produktion, Maschinen und Produkte verbessern. Transtec bietet hierzu entsprechende Lösungen für Industrie 4.0 an, die eine sichere Datenübertragung gewährleisten, Echtzeitanalyse der Produktionsdaten für die Prozessoptimierung sowie verschlüsselten Fernwartungszugriff auf Industrieanlagen ermöglichen.

HPC-Plattformen liefern die notwendige Rechenleistung

Grundlegende Voraussetzung für die effiziente Datenanalyse ist eine geeignete Big Data-Infrastruktur, die auch große Datenmengen schnell auswertet. Hier kommt High Performance Computing (HPC) ins Spiel. Traditionell wurden HPC-Umgebungen vor allem für rechenintensive Simulationen genutzt, etwa in Branchen wie Maschinenbau, Luftfahrt oder Automobilindustrie. In den letzten Jahren kristallisierte sich allerdings zunehmend auch Big Data Analytics als weiteres Einsatzgebiet von HPC-Lösungen heraus. Dieser Trend überrascht nicht, da bei der Analyse großer Datenmengen hoher Rechenbedarf besteht, gleich ob es um forschungs- und entwicklungsrelevante Analyse von Genomdaten geht oder um die Echtzeitauswertung der Sensordaten von Produktionsumgebungen, mit dem Ziel der automatisierten Optimierung von Produktionsmengen. HPC-Lösungsanbieter wie transtec, die seit Jahren große Erfahrung im Design und im Aufbau mittlerer bis sehr großer HPC-Umgebungen besitzen, können daher problemlos entweder einen Hadoop-Cluster für Big Data Analytics mit zehn Petabyte Speicherkapazität, oder auch eine Analytics-Infrastruktur zur automatisierten Echtzeitsteuerung von Maschinen.
Auch technologisch liegen Data Analytics und „klassisches“ HPC nicht weit auseinander. Beide basieren grundlegend auf dem „Scale-Out“-Ansatz, sprich der horizontalen Skalierung mit hoher Parallelisierbarkeit von Prozessen bei Servern, Storage und Netzwerk. Die höhere Leistung entsteht durch Parallelisierung und Verteilung der Last auf mehrere Server und nicht, indem der einzelne Server immer leistungsfähiger wird. Während es im traditionellen HPC-Einsatzbereich vor allem um paralleles Rechnen geht – die geeignete Programmierung der Software vorausgesetzt – steht im Data Analytics-Umfeld die parallele Auswertung großer Datenbestände im Mittelpunkt. Neue Technologien wie In-Memory-Datenbanken verringern zudem die Transaktionszeiten von Datenbankoperationen und sind im Business-Analytics-Umfeld mittlerweile nicht mehr wegzudenken.

Tennert_WoelkAutoren: Oliver Tennert ist Director Technology Management & HPC Solutions bei der transtec AG und Lisa Wölk ist Business Development Manager bei der transtec AG (Quelle: transtec)

%d Bloggern gefällt das: