Industrie 4.0 – Umsetzungshindernisse

Viele Unternehmen haben das Potential der Industrie 4.0 verstanden, doch nicht alle implementieren bereits die passenden Szenerien. Nach Meinung der angefügten Studie sind hierfür auch Lücken in der Software für das Verarbeiten kontinuierlicher Datenströme verantwortlich.

Data Stream Processing

Die anliegende Studie „Application of Data Stream Processing Technologies in Industry 4.0 — What is Missing?“ stammt aus der Feder des Hasso Plattner Instituts in Potsdam und befaßt sich mit dem Data Stream Processing, und den entsprechenden Lücken.

Typische Anwendungsszenarien der Industrie 4.0 verknüpfen Sensordaten, mit Objekten, die z.B. in ERP-Systemen verarbeitet werden. Die Studie zeigt in mehreren detaillierten Beispielen, was man sich darunter vorzustellen hat, und welche Vorteile man sich vom solchen Anwendungen erhofft.

Typischerweise sammelt man hierbei (z.B.) laufend Zustandsdaten, die während der Fertigung erzeugt werden. Und man verknüpft diese Daten dann mit dem Stammsatz des Teils, das gefertigt wird. Am Ende will man so Informationen darüber gewinnen, wie z.B. die Fertigung optimiert werden kann.

Die Studie liefert nun Erkenntnisse in den folgenden Bereichen:

  • Informationen und Meinungen von zwei exemplarischen Unternehmen, die Industrie 4.0 bei sich umsetzen wollen.
  • Definition und Einordnung des Begriffs der Industrie 4.0.
  • Status, Lücken und Trends von Systemen zur Verarbeitung kontinuierlicher Datenströme, was als entscheidende Fähigkeit in Industrie 4.0 Anwendungen gesehen wird.

Software

Kontinuierliche Datenströme stellen andere Anforderungen an die Verarbeitung. Daher muss man umdenken. Um nur zwei Beispiele zu nennen, stellen Sie sich vor, daß Sie in Ihrer Fertigung regelmäßig Sensordaten erheben, und diese abspeichern.

  • Solche Daten sind oft fehlerbehaftet (z.B. Messfehler), und
  • es ist nicht ausgemacht, daß die Daten in der Reihenfolge in der Datenbank ankommen, in der sie erhoben wurden (z.B. Latenzen bei der Übertragung) – um nur einige zu nennen.

Daher verwenden Streaminganwendungen normalerweise einen Messagebroker, an den die Daten gesendet werden, und der den Abnehmern die Daten zur Verfügung stellt, sobald sie vorliegen.

Typische Broker sind Apache Kafka, oder Apache Spark Streaming, um nur zwei zu nennen.

Ein solcher Messagebroker nimmt die vielen Sensordaten über einzelne Topics entgegen, und Interessenten subskribieren sich auf diese Topics, um nur die für sie relevanten Daten zu erhalten.

Ein solcher Prozess kann nun eine Datenbereinigungsfunktion für die Sensorwerte A sein, der Daten liest, Fehler erkennt und beseitigt und der die gesäuberten Daten wieder an den Broker sendet. Ein wieder anderer Prozess kann ein Rechenprozess sein, der die gesäuberten Daten liest, und agreggiert, der aber dabei sicherstellt, daß er erst dann anfängt, wenn die Daten für einen Zeitraum komplett sind. Und so weiter.

Ergebnisse

Die Studie kommt zu dem Ergebnis, daß insbesondere diese Verarbeitung kontinuierlicher Datenströme eine größere Herausforderung für Unternehmen darstellt, und daß dementsprechend viele Chancen hier für Hersteller lauern.

Die Herausforderung liegt einmal daran, daß die entsprechende Software nur sehr wenig standardisiert ist (z.B. gibt es kein genormtes Verfahren zur Bearbeitung solcher Datenströme). Dann ist sie neu, und es liegen noch nicht viele Erfahrungen vor. Und die Art, die Daten zu verarbeiten unterscheidet sich generell von der Verarbeitung von Daten aus Datenbanken, wie wir es bisher gewohnt waren.

Weiterführende Informationen

Das Original dieses Artikels ist auf Der Produktmanager erschienen (©Andreas Rudolph). Folgeartikel zum Thema gibt es über die (→Mailingliste), oder indem Sie →mir auf Twitter folgen.

In der Online Version des Artikels finden Sie hier die versprochenen weiterführenden Links:

Comments are closed.