Big Data

VIERNULL.blog | Big Data - Internet of Things

 

Der heutige Artikel leitet eine kurze Serie ein, die sich mit unterschiedlichen Themenkomplexen aus der Informationstechnologie befasst, die eine besonders große Relevanz in Bezug auf das Thema Industrie 4.0 und die digitale Transformation eines Fertigungsunternehmens besitzen.

 

Der Fokus des heutigen Artikels liegt auf dem Bereich Big Data. Der Begriff Big Data bezeichnet generell die Speicherung, Verarbeitung und Auswertung stetig wachsender Datenmengen, um aus diesen geeignete Schlüsse zu ziehen und Folgeaktionen abzuleiten. Ziel der Beherrschung dieser großen Datenmengen ist die Bereitstellung nutzbringender und hochwertiger Informationen, mit der ein Unternehmen sein volles wirtschaftliches Potential für das Servicegeschäft entfalten und seine strategische Weiterentwicklung im digitalen Zeitalter vorantreiben kann.

Allein schon die zielgerichtete Verknüpfung und Filterung von Informationen durch Methoden und Technologien von Big Data generiert einen signifikanten Mehrwert für das Unternehmen. Ein gutes Beispiel hierfür ist das im VIERNULL Blog zuletzt veröffentlichte Thema Predictive Maintenance, welche durch eine Konnektivität zwischen dem eigenen Produkt und der Nutzungsdatenrückführung im Zuge von Industrie 4.0 ermöglicht wird. Aber auch bestehende Geschäftsmodelle lassen sich durch Big Data effizienter gestalten, beispielsweise durch die Einbindung entsprechender Datenbestände in die Prozessanalyse und in kontinuierliche Verbesserungsprozesse. Des Weiteren lassen sich ebenfalls Rückschlüsse auf die eigenen Produktionsprozesse ziehen, sobald die Produktionsanlagen Daten sammeln und diese sinnvoll mit der Produktentwicklung verknüpft und ausgewertet werden, bis hin zur Steuerung und Planung durch autarke Produktionssysteme auf Basis dieser ermittelten Daten. 

3 Achsen von Big data - Geschwindigkeit, Varianz und Volumen

 

Bei der Betrachtung von Big Data sind drei unterschiedliche Dimensionen identifizierbar; zunächst das reine Volumen der Daten (dieses ist heute in vielen Anwendungsfällen durchaus im Tera- oder Petabytebereich anzusiedeln), dann die Geschwindigkeit mit der Daten zur Verfügung stehen (Daten werden heute oft in Echtzeit gespeichert und ausgewertet) sowie die Varianz der Daten bzw. Datenquellen, die heutzutage eine Vielzahl unterschiedlichster Geräte und Medien umfassen kann. 

Klassische monolithische IT-Systeme sind diesen Herausforderungen nicht gewachsen. Der Bereich der Datenerfassung und -auswertung (Data Science) war im letzten Jahrzehnt ein wesentlicher Faktor für den Erfolg verteilter und cloudbasierter Systeme, die die Verwaltung entsprechender Datenmengen (durch verteilte Datenbanken oder Dateisysteme) und eine direkte Auswertung der Datenströme (sogenanntes Stream Processing) überhaupt erst ermöglicht haben. Im Retail- und Logistikbereich sind kundennahe, zuverlässige und ressourcenschonende Prozesse ohne diese zu Grunde liegenden Technologien heute kaum mehr denkbar und bereits vielfach Stand der Technik.

Da im Big Data-Bereich eine manuelle Auswertung auf Grund der schieren Datenmenge nicht möglich ist, bedient man sich der Methoden des maschinellen Lernens um sinnvolle Informationen zu extrahieren oder um mathematische bzw. statistische Modelle der zu Grunde liegenden Prozesse zu generieren. 

Hier geht es insbesondere darum Muster in den Daten zu identifizieren (Pattern Matching). Dadurch lassen sich Empfehlungssysteme (Recommendation Systems) erstellen, wie beispielsweise aus dem Privatleben bekannt, die Empfehlung von Artikeln bei Internetversandhändlern oder das Angebot für interessenbezogene Filme auf Streamingplattformen. Außerdem können auf diese Weise Vorhersagesysteme (Predictive Analysis), wie im Aktienhandel oder bei der Verkehrsleitplanung, gesteuert werden.  Die letztere Anwendung gewinnt auch in der Fertigungsindustrie, eingebettet in die Thematik der Predictive Maintenance, immer mehr an Bedeutung. Ebenso wichtig für nahezu jeden Geschäftsbereich ist heutzutage die durch die maschinelle Datenreduktion ermöglichte Kennzahlenerfassung und Visualisierung von geschäftsrelevanten Daten im Rahmen der Business Intelligence. Auch hier zeigt sich zunehmend der Nutzen der vollen Bandbreite an Big Data-Lösungen, egal ob dies zur Trenderfassung und –vorhersage, zur Informationsvisualisierung oder zur Risikobewertung dient.

 

Big Data UseCases - Digitaler Zwilling

 

Gerade im Zuge der Industrie 4.0-Thematik kann insbesondere durch die Integration von Echtzeitdaten (aus Fertigung und Einsatz der Produkte) in den Produktlebenszyklus zu einer erhöhten Qualität der Produktdaten führen. Hier erlauben automatisierte Erfassungs- und Analysesysteme eine Anreicherung und Bewertung klassischer statischer Produktdaten, was die Wartung, Produktion, innovative Weiterentwicklung und Optimierung von Produkten signifikant beschleunigt und vereinfacht. Somit stellt Big Data einen wesentlichen Erfolgsfaktor einer jeden Industrie 4.0-Strategie da.