Skip to main content

Digitalisierungsprojekte in der Anlagentechnik

Erfassen, Analysieren und Weiterverarbeiten von Maschinen- und Sensordaten

Durch die Konvergenz von Automatisierungstechnik und IT-Technologien wird sich das industrielle Umfeld verändern und dadurch in vielen Industriebereichen neue Geschäftsmodelle hervorrufen. Zukünftig werden komplexere Produkte benötigt, die wirtschaftlich und in sehr hoher Qualität in sehr kleinen Losgrößen hergestellt werden müssen, um den Anforderungen der globalen Märkte in Bezug auf Nachhaltigkeit, Flexibilität und Effizienz gerecht zu werden. Die daraus resultierende Komplexität der Fertigungstechnik lässt sich nur mit datenbasierten Ansätzen über den gesamten Lebenszyklus einer Anlage beherrschen.

Die Konvergenz der Automatisierungstechnik mit IT-Technologien wird im industriellen Umfeld heute allgemein als „Digitalisierung“ bezeichnet. Aufgrund des nahtlosen Zugriffs auf Daten aus der Werksebene und der Möglichkeit, diese Daten zwischen verschiedenen Phasen des Produktionsprozesses (Stahlerzeugung, Gießen, Warmwalzen, Kaltwalzen usw.) auszutauschen, werden sich Änderungen im industriellen Umfeld ergeben, die aufgrund der dadurch möglich werdenden neuen Geschäftsmodelle in vielen Bereichen große Auswirkungen haben werden.

Aus Sicht eines Anlagenbetreibers wird die Digitalisierung ein Technologietreiber für vorausschauende Wartung, Prozessoptimierung, Verfolgung und Nachverfolgung der Produktqualität sowie für das Benchmarking ähnlicher Anlagen an verschiedenen Standorten sein.

Anlagenbauer wiederum profitieren von erweiterten Möglichkeiten der Ferninbetriebnahme, können neue Geschäftsmodelle für Dienstleistungen („digitale Dienstleistungen“) aufbauen und ihre Anlagenplanung durch Informationsfeedback aus der weltweit installierten Basis optimieren. Schließlich werden Anlagenbauer durch die Digitalisierung zusätzliches Geschäftspotenzial als Technologieberater für ihre Kunden haben, anstatt lediglich ein Maschinen- und Automatisierungslieferant zu sein.

Bindeglied zwischen OT und IT

In [1] wird eine aus sieben Schichten bestehende Schichtenarchitektur als Internet- of-Things(IoT)-Referenzarchitektur gezeigt und beschrieben. Die unterste Schicht besteht aus physischen Geräten wie Sensoren, Aktoren und programmierbaren Steuerungen. Die Konnektivität zu dieser Feldebene, Edge-Computing und Datenspeicherung bilden die darüber liegende Schicht. Die gespeicherten Daten mit hoher Auflösung werden dann aggregiert und in Informationen auf der Datenabstraktionsschicht umgewandelt. Diebeiden oberen Ebenen umfassen Softwareanwendungen für Berichterstellung, Analyse, Zusammenarbeit und Geschäftsprozesse.

Während diese Struktur recht einfach und unkompliziert aussieht, gibt es Herausforderungen bei der praktischen Umsetzung. Zumindest nach dem heutigen Stand der Technik gibt es in einer realen Fabrik eine strikte Trennung der grundlegenden Automatisierungs- und Prozesssteuerungsschicht (oft als „OT“-Schicht für „Operational Technology“ bezeichnet) von der IT-Schicht in Bezug auf Netzwerke, die verwendeten Hardware- und Softwarekonzepte sowie die Nomenklatur. Daher werden Methoden benötigt, die die Lücke zwischen IT und OT schließen.

Zu diesem Zweck schlagen wir ein vierstufiges Datenmodell vor, mit dem Produktions-, Prozess- und Qualitätsdaten auf einer digitalen Plattform im IT-Bereich bereitgestellt werden können, Bild 1. So können Anlagenbetreiber komplexe Produktionsprozesse transparent machen. Außerdem ist es dann möglich, die Anlagenproduktion autonom zu überwachen, zu analysieren und zu optimieren.

Blank
Bild 1: Vierstufiges Datenmodell als Bindeglied zwischen OT und IT

Basierend auf der Erfahrung, dass unterschiedliche Benutzergruppen Daten in völlig unterschiedlichen Darstellungen und Aufbereitungen benötigen, wird ein einheitliches Verfahren vorgeschlagen, das auf einer zentralen Erfassung von Rohdaten direkt an ihren Herkunftsquellen (Steuerungen, Sensoren, Messgeräte ...) und auf dieser Datenbasis beruhenden Nachberechnung von Informationen zu unterschiedlichen Zwecken in Form von Kennwerten oder Leistungsindikatoren basiert. Somit kann ein konsistentes System verschiedener Leistungsindikatoren (auch KPIs genannt) bereitgestellt werden, Bild 2.

Abweichungen dieser Kennwerte vom Normalverhalten deuten frühzeitig auf Abweichungen im Produktionsprozess hin und können zur Einleitung einer vorausschauenden Instandhaltung genutzt werden. Um die Ursache für das auffällige Verhalten zu finden, ist es möglich, auf die Rohdaten durch einen sogenannten „Drill Down“ zuzugreifen und so eine eingehende Analyse durch Experten zu ermöglichen.

Blank
Bild 2. Vorgeschlagenes Verfahren für die Erfassung, Speicherung, Nachbearbeitung und statistische Analyse von Daten

Praxisbeispiele für die erweiterte Datenanalyse

Das oben beschriebene, grundsätzliche Verfahren wurde in vielen Anwendungen in Stahl- und Walzwerken auf der ganzen Welt sowie in anderen Industriezweigen eingesetzt. Daher sollen drei Beispiele für verschiedene Anwendungsfälle angegeben werden:

Interaktive Datenanalyse zur Fehlerbehebung

Die Erfassung von Messdaten in automatisierten Fertigungsanlagen wie Walzwerken ist Voraussetzung für die Analyse dieser Systeme. Die Messdaten geben dem Benutzer ein digitales Abbild seiner Anlage, das zur Prozess- und Produktionsoptimierung verwendet werden kann. Ein Beispiel ist in Bild 3 dargestellt.

Umfassendere Auswertungsmöglichkeiten ergeben sich, wenn zusätzlich Videodaten synchron zu den Messdaten erfasst und aufgezeichnet werden. Für den Benutzer bieten Bilder zusätzliche Informationen, die mit herkömmlichen Sensoren nicht erfasst werden können. Durch die synchronisierte Aufzeichnung können die Messdaten zusammen mit den Videodaten ausgewertet und gemeinsam interpretiert werden: So können Störungen und Produktionsprobleme schnell lokalisiert werden, da die Ursachen für anormale Verläufe der Messdaten in der Regel in Bildern sofort sichtbar sind.

Blank
Bild 3: Analyse eines Hochgehers in einer Warmbreitbandstraße, unterstützt von synchronen Videodaten

Proaktive Prozessverbesserung mit statistischer Prozesskontrolle

In einer Anlage zur Herstellung von Verpackungsmaterial traten vereinzelt Unregelmäßigkeiten im Druckbild der hergestellten Kartonagen auf. Der Wert eines einzelnen Pakets liegt im Bereich einiger Cent; wenn jedoch eine solche Verpackung gefüllt ist und in den Handel kommt, nimmt der Verbraucher diese Waren als minderwertig wahr. Dadurch bleibt es unverkäuflich im Regal. Der dem Verpackungshersteller im Rahmen von Reklamationen tatsächlich entstandene Schaden kann daher erheblich sein.

Durch eine statistische Langzeitauswertung der Kenngrößen kann die Verteilung dieser Kenngröße als Histogramm dargestellt werden. Ausreißer sind in Bild 4 leicht zu erkennen. Mit der vorgeschlagenen Methode kann auf benutzerfreundliche Weise ein sogenannter „Drill Down“ zu den Messdateien durchgeführt werden, die diese Klasse von Kennwerten darstellen. Dies ermöglicht eine signalorientierte interaktive Analyse, die einen Zusammenhang zwischen den im Druckwerk auftretenden Toleranzabweichungen und der Pappenspannung im Bereich der Druckmaschine aufzeigt.

Blank
Bild 4: Auffinden von Prozessproblemen durch Analyse von Ausreißern

Datenbasierte Überprüfung der Produktidentität

Bei der Herstellung von Stahl- und Aluminiumbändern werden sehr hohe Anforderungen an die Qualität und damit auch an die Prozesssicherheit gestellt. Das produzierte Material muss zuverlässig durch die verschiedenen Prozessschritte zurückverfolgt werden, um eine aussagekräftige Qualitätszertifizierung für anspruchsvolle Anwendungen in der Automobil- und Luftfahrtindustrie zu gewährleisten. Die Herausforderung dabei ist, dass in den meisten Fällen eine räumliche Trennung der Anlagen (z.B. Warmwalzwerk, Kaltwalzwerk, Beschichtungsanlage) vorliegt und die einzelnen Prozessschritte auch zeitlich entkoppelt sind. Dementsprechend können Transportvorgänge oder Zwischenlagerungen nicht vermieden werden. Um eine korrekte Materialverfolgung zu gewährleisten, ist die eindeutige Identifizierung oder Zuordnung der Bänder im jeweiligen Produktionsschritt erforderlich. Dies geschieht in der Regel über Aufkleber mit Barcode, Prägung oder ähnlichen Markierungen. Diese Verfahren können jedoch keine 100-prozentige Sicherheit gegen Materialverwechslungen bieten.

Abhilfe schafft ein Verfahren, mit dem sich Bänder über einen digitalen „Fingerabdruck“ eindeutig identifizieren lassen, Bild 5. Dieses in [2] erstmals beschriebene Verfahren basiert auf mathematischen Methoden zur Analyse von Zeitreihendaten [3] und geht davon aus, dass sich Messreihen von geometrischen Bandeigenschaften über die Länge des Bandes zwischen verschiedenen Produktionsschritten nicht ändern, solange keine wesentlichen Materialumformungen zwischen diesen Schritten vorgenommen werden.

In der Praxis eingesetzte Messreihen sind in der Regel Dickenlängsprofile, die beim Verlassen des Walzwerks und vor dem neuen Eintritt des Bandes in die nächste Produktionsstufe erfasst werden. Durch die eindeutige Zuordnung dieser Fingerabdrücke zu den einzelnen Produktionsstufen kann eine Zertifizierung der Identität zweier Coils erfolgen.

Blank
Bild 5: Vergleich des Fingerabdrucks identischer Coils (linke Seite) und nicht identischer Coils (rechte Seite)

Fazit

Es wurde ein System vorgestellt, das die Sensor-/Aktor-/Automatisierungsebene einer Industrieanlage mit IT-Systemen verbindet, die für überlagerte Datenanalysen und Statistiken verwendet werden. Das vorgeschlagene Datenmodell erfasst und zeichnet zunächst hochauflösende Daten über die Prozesskonnektivität auf und berechnet diese Daten anschließend zu aussagekräftigen Parametern, die in Data Warehouses oder Datenspeichern der IoT-Plattform publiziert werden. Alternativ ist es möglich, Daten direkt vom Erfassungssystem zu plattformbasierten Zeitreihenspeichern oder Datenbrokern zu streamen. Es wurden praktische Beispiele gegeben.

Literatur

[1]Kranz, M.: Building the Internet of Things, Wiley, 2016.
[2]Anhaus, H.: Verfahren und Vorrichtung zur Identifizierung eines Teilstücks eines Halbzeugs, Deutsche Patentschrift DE 10 2006 006 733 B32007.08.23, 2007.
[3]Dranischnikow, E.: Effiziente und robuste, feature-basierte Wiedererkennung langer Zeitreihen in großen Datenbanken, Johannes-Gutenberg-Universität, Mainz, 2014 (Diss.).