PREDICTIVE MAINTENANCE
BIG DATA & PREDICTIVE ANALYTICS
MIT UNTERNEHMENSDATEN ZUM ERFOLG
Im Rahmen der digitalen Transformation wird ein effektives Datenmanagement immer mehr zum Erfolgsfaktor. Ziel ist es die enormen Datenmengen möglichst effizient zu erfassen, zu speichern, die Informationen verfügbar zu machen und dabei für die Prozessausführung zu nutzen.
BIG DATA INFRASTRUKTUR
Die Nutzungspotentiale sind am Anfang eines Digitalisierungsprojektes noch nicht umfänglich bekannt. Deshalb sollten möglichst viele Daten gesammelt werden, welche die Basis für Analysen darstellen. In ihrer Gesamtheit gestatten diese aber auch die Umsetzung zukünftiger, heute noch unbekannter, Analysen für neue datengetriebene Use Cases.
Ist eine Datenstrategie etabliert, liegt der Fokus auf einer IT-Architektur, die eine sichere Speicherung und hohe Datenverfügbarkeit gewährleistet. Ein bewährtes Architekturkonzept ist die Lambda Architektur. Die Daten werden für eine effiziente Abfrage für die unterschiedlichen Anforderungen der Applikationen aufbereitet und bereitgestellt. Ein Daten-Repository dient der dauerhaften Speicherung von Rohdaten in normalisierter Form für Analysen und Anwendungen. Um direkt auf neue Informationen zu reagieren, wird zusätzlich der Datenstrom für Stream-Analysen aufgeteilt. Die Analyse der kontinuierlichen Datenströme ermöglicht die Auswertung von Nutzungsverhalten, die Ausführung von Predictive Maintenance Algorithmen oder die optimierte Disposition von Mitarbeitern und Maschinenaufträgen auf Basis aktueller Planungsdaten.
Als Partner beraten und begleiten wir Sie bei der Erstellung und Umsetzung einer ganzheitlichen Datenstrategie. Dabei verfolgen wir eine Best-of-Breed Philosophie und kombinieren herstellerunabhängig die besten Lösungen für Ihre Anforderungen mit flexiblen und agilen Teams.

PREDICTIVE ANALYTICS
Predictive Analytics ist ein Verfahren, in dem auf Basis historischer Daten, statistischer Algorithmen und maschinellem Lernen vorausschauend Vorhersagen und Prognosen erstellt werden.
CRISP-DM – UNSER VORGEHEN
Unser Vorgehen bei der Umsetzung von Predictive Analytics Projekten orientiert sich am Cross Industry Standard Process for Data Mining-Projekten (CRISP-DM). CRISP-DM ist ein Industriestandard für ein iteratives Vorgehen bei der Durchführung von Data-Mining Projekten. Das Vorgehen unterteilt sich in sechs Phasen:
Wichtig für den Erfolg eines Data-Mining Projekts ist das Verständnis und Festlegen der Ziele und Anforderungen.
Auf Basis der Ziele und Anforderungen erfolgt eine Sichtung und Identifizierung der erforderlichen und vorhandenen Daten und Quellen.
Die Aufbereitung der Daten ist ein wesentlicher Schritt und nimmt den Großteil der Zeit in Anspruch. Dieser Schritt umfasst die Beurteilung, Datensammlung und -integration, sowie die Normalisierung und Bereinigung der Daten.
In der vierten Phase beginnt die Analyse. Dazu werden geeignete Methoden und Modelle ausgewählt und implementiert.
In der Evaluierungsphase wird das Modell mit Testdaten trainiert und die Vorhersagen werden auf Basis historischer Daten geprüft.
Sobald das Modell eine zufriedenstellende Vorhersage liefert wird es in die Applikation integriert.

Die Durchführung erfolgt nicht linear. Bei neuen Erkenntnissen oder fehlenden Informationen kann es erforderlich sein, zu einer früheren Phase zurückzukehren. In einem initialen Workshop ermitteln wir gemeinsam mit Ihnen die Potentiale und den Nutzen Ihrer Daten. Auf Basis der Ergebnisse führen unsere Data Scientists eine Exploration der Daten durch. Gemeinsam werden Ziele und Anforderungen definiert und als Minimum Viable Product (MVP) umgesetzt. Die vollständige Lösung wird iterativ entwickelt, so dass neue Erkenntnisse von Anfang an berücksichtigt werden und einfließen.
M2M MASCHINENKOMMUNIKATION- & -INTEGRATION
OFFENE- & MODULARE IoT INFRASTRUKTUR