DLG-Expertenwissen 05/2019
1. Auflage, Stand 07/2019
Autor:
Thomas Fritz, t.fritz@cenit.com
Marc Brandner, m.brandner@cenit.com
CENIT AG, 60528 Frankfurt am Main
In Zusammenarbeit mit dem DLG-Arbeitskreis Robotik in der Lebensmittelherstellung
1. Basiswissen „Predictive Maintenance“
Einstieg
Unvorhergesehene Maschinenausfälle, Leistungseinbrüche und Qualitätseinbußen verursachen in der Lebensmittelindustrie hohe Personal- und Wartungskosten. Die Folgen sind aufwendige Kontrollen gesperrter Chargen und schlimmstenfalls Lieferengpässe, die zu Imageverlusten im Handel und bei den Verbrauchern führen. Eine stabile Produktionsleistung und nachhaltige Produktqualität bei zugleich planbaren Produktionskosten kann nur durch effiziente und ressourcenschonende Produktionsprozesse sichergestellt werden. Die richtige Instandhaltungsstrategie kann daher einen wesentlichen Beitrag zur Wertschöpfung und Profitabilität eines Unternehmens leisten. Die Wahl des zu einem Produktionsprozess passenden Instandhaltungsmodells hängt allerdings stark von der Komplexität der genutzten Anlagen, deren Automatisierungsgrad und den möglichen Einflussfaktoren auf Verschleiß und Produktqualität ab.
Klassische Instandhaltungsmodelle
In den meisten Betrieben haben sich traditionelle Instandhaltungsmodelle durchgesetzt, bei denen basierend auf Erfahrungswerten und gesetzlichen Vorgaben in festen Abständen bekannte und vordefinierte Wartungstätigkeiten präventiv eingeplant werden, oder aber auf Defekte erst nach deren Eintritt reagiert wird. Diese klassischen Instandhaltungsmodelle eignen sich für einfache und weitestgehend entkoppelte Herstellungsschritte mit geringen Freiheitsgraden, deren Ausfall nur eine geringe Auswirkung auf den gesamten Produktionsprozess hat.
Diese klassischen Vorgehensmodelle werden jedoch kostenintensiv und ineffizient, je mehr Faktoren den Verschleißgrad und die Produktqualität beeinflussen und je stärker die Linien automatisiert sind. Der Eintritt von Störungen lässt sich dann nicht mehr alleine auf Basis von Erfahrungswerten und manuellen Beobachtungen einschätzen, wodurch die „reagierende“ und „vorbeugende“ Wartung hier schnell an ihre Grenzen stößt. Dadurch kommt es einerseits zu teuren ungeplanten Wartungen, die erst nach Störungseintritt vorgenommen werden können, andererseits entstehen aber auch hohe Wartungskosten durch zu häufig durchgeführte Wartungen, wenn bei sehr sensiblen Aggregaten ungeplante Ausfälle um jeden Preis vermieden werden müssen.
Datengestützte Instandhaltungsmodelle
Um Wartungsmaßnahmen effizienter zu planen und die Folgekosten durch ungeplante Defekte zu minimieren, wird durch datengestützte Instandhaltungsstrategien eine Abhilfe geschaffen. Ein erster Schritt ist dabei die „überwachende“ Wartung (engl. „condition-based“), bei welcher Wartungsmaßnahmen je nach Verschleißzustand oder Überschreitung definierter Schwellwerte vorgenommen werden. Dies kann in einigen Fällen Transparenz bieten, stellt jedoch die Instandhaltung vor die Herausforderung, aus riesigen Datenmengen von unterschiedlichsten Sensoren unter Zeitdruck die relevanten Schlussfolgerungen zu ziehen.
Als konsequente Weiterentwicklung der überwachenden Wartung bietet daher „Predictive Maintenance“ – also die „prädiktive“, vorausschauende Wartung – eine Lösung, die mit modernen Analysetechnologien sich anbahnende Defekte aus den Daten vorhersagen kann, um bereits vor dem Eintreten eines ungeplanten Defekts die passenden Gegenmaßnahmen ergreifen zu können. Die genutzten Verfahren basieren auf der Auswertung von Prozess- und Maschinendaten durch automatisierte Datenanalysen in Verbindung mit Prognosemodellen. Dabei kommen Verfahren zur Anwendung wie sie auch zur Vorhersage der Entwicklung von Börsenkursen und Unwettern verwendet werden. Durch deren zielgerichteten Einsatz können konkret folgende Mehrwerte geschaffen werden:
- Reduktion der Häufigkeit ungeplanter Stillstände und Instandhaltungsarbeiten
- Eingrenzung von Fehlerursachen und Empfehlung von Gegenmaßnahmen
- Erkennung anormaler Anlagenzustände auf Basis historischer Daten
- Planung zielgerichteter Wartungen, nur wenn diese erforderlich sind
- Verringerung von Folgekosten durch erhöhten Ausschuss und Folgebeschädigungen
Technologische Vision
Predictive Maintenance wird häufig im Kontext von Schlagworten wie „Industrie 4.0“, „Smart Factory“ und „Industrial Internet of Things (IIoT)“ genannt. Hinter diesen Begrifflichkeiten vereint sich die Vision einer umfassend vernetzten Produktion autonomer Produktionsanlagen, deren Produktionsprozesse durch Datenanalysen optimiert werden können. Während Predictive Maintenance (im Folgenden abgekürzt mit „PM“) in der Fachpresse als prominentes Paradebeispiel für die Digitalisierung in der Industrie angeführt wird, liegen die Wurzeln der Idee im bekannten Prinzip der „Total Productive Maintenance“ (TPM): der kontinuierlichen Verbesserung von Produktionsprozessen um Breakdowns und Qualitätsprobleme mit allen ihren Folgekosten zu verhindern. Während diese Vorgehensweise nützliche Kennzahlen bieten kann (wie z. B. die „Gesamtanlageneffektivität“ = OEE = Overall Equipment Effectiveness), so können erst datengetriebene Predictive-Maintenance-Systeme die notwendigen Informationen zur richtigen Zeit liefern, die es der Produktion und Instandhaltung ermöglichen, mit ihren Entscheidungen die Effektivität der Instandhaltung und Produktion nachhaltig zu steigern.
Ausgangslage in der Lebensmittelbranche
In der Lebensmittelindustrie findet man heutzutage eine sehr heterogene Landschaft an Produktionsanlagen, welche technologiebedingt nur teilweise über die notwendige Ausstattung mit Sensorik verfügen. Selbst wenn einzelne, jüngere Anlagen mit den passenden Sensoren und Übertragungsschnittstellen ausgestattet sind, so sind Anlagen – meist unterschiedlicher Hersteller und Altersklassen – nur begrenzt vernetzt und durch zentrale Leitebenen gesteuert. Viele Produktions- und Instandhaltungsleiter unterliegen deshalb dem Trugschluss, sie könnten mangels zentraler Betriebsdatenerfassung nicht von den Vorteilen einer prädiktiven Instandhaltung profitieren. Bei genauer Betrachtung findet sich aber auch in gewachsenen Produktionsumgebungen eine ausreichende Anzahl an Anwendungsfällen für prädiktive Analysen.
Die folgenden Abschnitte sollen als Leitfaden beim Einstieg in die Umsetzung von Predictive-Maintenance-Projekten dienen und anhand praxisnaher Erfahrungen die typischen Herausforderungen und Fallstricke verdeutlichen.
2. Analyse industrieller Maschinendaten
Analyseverfahren
Um kritische Zustände oder Normabweichungen in Produktionsprozessen zu erkennen, werden traditionell im zentralen Leitstand oder am Steuerungspanel einer Anlage feste Regelwerke zur Prüfung der Messdaten verwendet. Kritische Druckbereiche einer Pumpe oder zu geringe Drehzahlen einer Turbine werden anhand der Über- oder Unterschreitung von fest vordefinierten Schwellwerten erkannt. Können damit kurzfristig unmittelbar auftretende oder bereits eingetretene Probleme erkannt werden, so ist es mit dieser Methode nicht möglich, das Problem bereits Stunden oder Tage vor dessen Auftreten vorherzusagen. Eine Früherkennung zeigt sich in den meisten Fällen in vom Menschen durch manuelle Überprüfung schwer erkennbaren Mustern, die erst bei der kombinierten Betrachtung vieler verschiedener Datenreihen von Sensoren und Aktoren sichtbar werden.
Um die im Produktionsprozess anfallenden Daten also für die Vorhersage von Defekten und Verschleißverhalten nutzbar zu machen, werden mithilfe statistischer Methoden in einer explorativen Datenanalyse diese wiederkehrenden Muster in den Daten aufgespürt. Diese Muster werden in einem weiteren Schritt mit bestimmten protokollierten Ereignissen wie vergangenen Defekten, Qualitätsproblemen, Anlageneinstellungen, Rezepturen oder verarbeiteten Materialen korreliert.
Die dabei verwendeten Algorithmen entstammen dem Bereich des „Maschinellen Lernens“. Mit ihnen ist es möglich, anhand sogenannter „Trainingsdaten“ einem Modell die automatische Erkennung der Fehlermuster anzutrainieren, ohne dass hierfür von Hand ein Regelwerk aufgebaut werden müsste. Die Entscheidungsregeln und mathematische Funktionen werden von den Algorithmen in einem prädiktiven Modell mithilfe der Trainingsdaten angelernt. Dieses Lernen anhand von Beispielen wird „Überwachtes Lernen“ genannt. Ein einmalig angelerntes Modell kann im Produktionsalltag dann dazu verwendet werden, die Prognosen und die Erkennung von schleichendem Verschleiß automatisch und „live“ mit nur sehr geringer Zeitverzögerung durchzuführen. Damit diese Modelle mit der in der Praxis notwendigen Genauigkeit arbeiten, muss der verwendete Trainingsdatensatz aus einer repräsentativen und ausreichend großen Datenmenge bestehen. Erst damit wird die Software in die Lage versetzt, die typischen Charakteristiken der Fehlermuster zuverlässig wiederzuerkennen und die Zeiträume von anstehenden Defekten realistisch abzuschätzen.
Je nach Art der Messgrößen einer Anlage ist es somit keine Seltenheit, dass täglich pro Maschine mehrere Gigabyte an Messdaten verarbeitet werden müssen. Abhängig von der Art des Produktionsprozesses ist dabei entscheidend, dass diese Analysen nicht nur stapelweise durchgeführt werden (beispielsweise einmal täglich), sondern sobald die Daten gemessen wurden. Diese Art der Analyse wird als „Streaming Analytics“ bezeichnet, da hier nicht große Stapel an Daten („Batch Analytics“) in einem Schwung analysiert werden, sondern ein kontinuierlicher Datenstrom mithilfe der Analysemodelle gescannt wird. Traditionelle Tabellenkalkulationen und Datenbanksysteme stoßen hier schnell an ihre technischen Grenzen, weswegen hierfür in der Regel spezielle Predictive-Maintenance-Systeme genutzt werden.
Datenquellen & Datentypen
Für die beschriebenen Analyseverfahren ist eine der Problemstellung angemessene Datenbasis notwendig. Naheliegend ist dabei die Erfassung und Auswertung klassischer Sensordaten auf der Zeitachse (Zeitreihendaten) wie unter anderem Druck, Temperatur, Stromverbrauch oder Drehzahlen, die fast in allen Produktionsprozessen anzutreffen sind. Während für eine einfache Schwellwertüberwachung einzelne Sensoren isoliert betrachtet werden können, wäre eine rückwirkende Betrachtung der Zeitreihen ohne Einbezug von Kontextinformationen nur wenig aussagekräftig. Ein vermeintlich auffälliger Temperaturanstieg innerhalb eines Tanks könnte während der Produktion auf eine Störung hindeuten, dagegen bei einer CIP-Reinigung („Cleaning In Place“) im Rahmen der normalen Betriebsparameter liegen. Erst im Kontext der Ablaufsteuerung und der Betriebsphasen der Anlage, sowie der kombinierten Betrachtung mehrerer Sensordatenreihen werden die Datenmengen überhaupt interpretierbar.
Zwar machen Zeitreihendaten – also zeitabhängige Sequenzen von Sensormessungen – volumenmäßig den Hauptanteil der zu analysierenden Daten aus, ein weiterer wichtiger Bestandteil der Datenbasis sind jedoch auch sogenannte „Kontextdaten“. Dazu gehören Ausfallzeiträume, Fehlerursachen, Wartungsprotokolle, Fehlermeldungen und Informationen zu Änderungen bei der Produktrezeptur. Oft sind Schlussfolgerungen und Prognosen erst dann möglich, wenn Daten mehrerer Sensoren kombiniert betrachtet („Sensor Fusion“) und diese mit Kontextdaten zusammengeführt werden, so dass aus Perspektive der Instandhaltung ein vollständiges Bild des Produktionsprozesses entsteht („Digitaler Zwilling“). Selbst wenn eine zentrale Betriebsdatenerfassung existiert, müssen also in den meisten Fällen weitere Daten aus unterschiedlichen Quellen aggregiert und auf dem Zeitstrahl normiert werden, damit diese für Analysen und Prognosemodelle gewinnbringend genutzt werden können.
Schnittstellen & Protokolle
Initiativen zur Einführung und Nutzung von Predictive Maintenance starten in den seltensten Fällen auf der „grünen Wiese“. Essenziell für Erfolg oder Misserfolg der Unternehmung ist deshalb die Integration in die technische Landschaft der bestehenden Produktions-IT („Operational IT“). Die technische Herausforderung besteht darin, unterschiedliche Datenquellen an ein in der klassischen IT angesiedeltes Predictive-Maintenance-System anzubinden. Eine zentrale Betriebsdatenerfassung (BDE) oder auch eine linienspezifische Maschinendatenerfassung (MDE), sowie das ERP-System (Wartungs- und Betriebsprotokolle) sind dabei die primären Anlaufstellen.
Damit tiefgreifende technische Änderungen in der Anlagenkommunikation nicht zu immer wiederkehrenden Anpassungsaufwänden bei der Datenanalyse führen, ist es sinnvoll, bei der Datenbeschaffung soweit als möglich auf die bereits erfassten Daten in der Betriebsleitebene oder der Prozessleitebene zurückzugreifen (siehe Abbildung „Automatisierungspyramide“). In jenen Fällen, in welchen die eingesetzten Erfassungssysteme die benötigten Daten in unzureichender Dichte, Qualität und Vielfalt liefern, sollte zusätzliche Hardware eingesetzt werden, mit deren Hilfe die Daten einzelner Sensoren und Aktoren direkt aus dem Automatisierungsnetz abgegriffen werden können. Diese sogenannten „IIoT-Gateways“ sind eine günstige Retrofit-Variante, welche eine nachträgliche Instrumentierung von Messdaten ermöglicht, ohne dass dazu aufwendige Eingriffe an bestehenden Anlagen und Steuerungssystemen vorgenommen werden müssen.
Anders verhält es sich bei neu angeschafften Anlagen oder Fertigungslinien. Hier kann man auf verschiedenen Ebenen der Automatisierung von Standards profitieren, auf deren Basis die Teilkomponenten einer Produktionslinie eine „gemeinsame Sprache“ sprechen und sich so leichter integrieren lassen. Insbesondere für die Erfassung von Betriebsdaten sind diese Standards von erheblichem Vorteil, da so Anlagen unterschiedlicher Hersteller ihre Betriebsparameter über ein einheitliches und verständliches Schema bereitstellen können. Eine einheitliche Vorgabe der Bedeutung der Datenstrukturen wurde in den letzten Jahren in Form branchenspezifischer Standards wie zum Beispiel den „Weihenstephaner Standards“ oder „PackML“ entwickelt*. Darüber hinaus hat sich branchenübergreifend in der Welt der Automatisierung das OPC-UA-Informationsmodell zur maschinenlesbaren Beschreibung von Produktionsdaten und zur übergreifenden Prozesssteuerung etabliert. Spezielle Retrofit-Boxen für die Hutschiene spielen in Produktionsumgebungen auf diesem Level nur noch eine geringe Rolle, und werden nur noch dazu genutzt, um Legacy-Maschinen für die Anbindung die Standardkommunikation fit zu machen.
3. Umsetzung eines Pilotprojekts
Drei-Phasen-Vorgehensmodell
Wer sich als Verantwortlicher für Produktion und Instandhaltung in der Lebensmittelindustrie mit dem Einstieg in die Thematik „Predictive Maintenance“ beschäftigt, steht zunächst vor einer Reihe legitimer Fragen, u. a.:
- Für welchen Anbieter oder welche technische Plattform soll ich mich entscheiden?
- Wie kann das Risiko einer Fehlinvestition reduziert werden?
- Wann ist mit den ersten Ergebnissen zu rechnen?
- Wann wird sich eine Investition amortisieren?
In der noch jungen Geschichte der Predictive-Maintenance-Projekte hat sich ein dreiphasiges Vorgehensmodell bewährt.
In der ersten Phase werden in Workshops zwischen Instandhaltung, Prozessverantwortlichen, Qualitätsmanagement und Automatisierung gemeinsam mit einem Lösungspartner mögliche Anwendungsfälle in den bestehenden Produktionsprozessen aus Sicht der verschiedenen Teams eines Werkes identifiziert. Idealerweise wird für ein Pilotprojekt nicht eine ganze Linie, sondern ein einzelner, abgegrenzter und problembehafteter Prozessschritt ausgewählt und anhand mehrerer fachlicher und technischer Kriterien bewertet:
- Hat der Anwendungsfall technisches Verbesserungspotenzial?
- Welche Kostenverringerungen könnten mit vorausschauender Instandhaltung erreicht werden?
- Werden aus fachlicher Sicht die wichtigsten Einflussfaktoren für Verschleiß und Produktqualität aufgezeichnet?
Neben der Erfüllung dieser drei Kriterien ist aber auch wichtig, sich bei der Auswahl nicht primär von der Datenverfügbarkeit leiten zu lassen (siehe Punkt 3). Andernfalls entsteht im Pilotversuch eine Lösung rund um verfügbare Daten, die aber nicht wirklich ein gravierendes und sichtbares Problem löst.
Die zweite Phase beinhaltet eine explorative Analyse historischer Daten, welche aufgezeichnet und einmalig exportiert werden. Eine Liveübertragung von Daten ist dabei noch nicht erforderlich. Sofern das Unternehmen nicht über Analysten mit entsprechenden Werkzeugen zur Datenanalyse verfügt, helfen IT-Dienstleister mit der Expertise sogenannter „Data Scientists“ weiter. Das Ziel der zweiten Phase ist es, Muster in den Daten zu finden, die als Grundlage für Live-Analysen, basierend auf Prognosemodellen, verwendet werden können. Dabei diskutieren die Experten aus der Produktion und Instandhaltung (Domänenexpertise) mit den Analysten des Dienstleisters (Analyseexpertise) in mehreren Runden die gefundenen Ergebnisse und bewerten deren Nutzen im Kontext der Produktionsprozesse. Dies liefert den Beteiligten mit überschaubarer Komplexität und Budget einen tieferen Einblick in den Prozess und die Transparenz über das Zusammenspiel der verschiedenen Parameter.
Oft lassen sich bereits aus einer ersten Analyse „Quick wins“ ableiten und kritische Situationen durch Änderungen in der Ablaufsteuerung entschärfen. Am Ende eines solchen „Proof Of Concepts“ können die Verantwortlichen aus Produktion und Instandhaltung beurteilen, ob sich bereits aus vorhandenen Daten werthaltige Erkenntnisse generieren lassen und es sich lohnt, weiter in eine Operationalisierung eines Streaming-Analysesystems für Predictive Maintenance zu investieren. Hier setzt die dritte Phase an, in der die Implementierung und Integration eines PM-Systems für ausgewählte Produktionsschritte technisch und wirtschaftlich geplant und vorbereitet wird.
Anwendungsbeispiel aus der Praxis
Viele potenzielle Anwendungsfälle für Predictive Maintenance in der Lebensmittelbranche bewegen sich im Bereich der Verpackung oder Abfüllung der Produkte. Nicht nur sind Verluste am Ende des Produktionsprozesses besonders kostspielig, auch bedeutet ein ungeplanter und zu langer Stillstand einer Verpackungsmaschine oder Abfüllanlage nicht selten, dass eigentlich einwandfreie Lebensmittel mangels Puffermöglichkeit vernichtet werden müssen. Auch technisch sind diese Prozesse aufgrund ihrer Geschwindigkeit und der großen Anzahl beweglicher Teile vielen Einflussfaktoren unterworfen, weswegen sich die Fehlersuche und Optimierung in dieser Art von Produktionsschritten schwierig gestaltet.
Ein anschauliches Beispiel für die konkrete Anwendung von Predictive Maintenance in diesem Bereich findet sich im Brauereiwesen. Bei der Abfüllung von Bier in Glasflaschen werden Abfüllanlagen verwendet, die im Verfahren der Gegendruckbefüllung stündlich weit über tausend Hektoliter Bier in Flaschen abfüllen können. Die Gegendruckbefüllung verhindert durch Angleichung des Drucks in der Glasflasche mit jenem des Ringbehälters, sowie dem Evakuieren der Flasche die Bindung von Sauerstoff im Getränk, und verhindert somit auch das Überschäumen beim Abfüllvorgang. Passen der effektive Druck beim Befüllen oder Mischverhältnisse von Gasen nicht zum Füllprodukt, kann es zum Überschäumen von Flaschen und dadurch zu niedrigen Füllhöhen und Sauerstoffbindung kommen. Dies führt in der Regel zur Aussonderung der betroffenen Flaschen bei der optischen Endkontrolle des Füllstands. Ausschusskosten, ein erhöhter Reinigungsaufwand und weitere Folgebeschädigung sind die Konsequenz.
Eine Ursache dieser Probleme sind Leckagen bei der Druckluftversorgung oder an den Dichtungen der Vorspannventile. Solche Leckagen sind vor allem bei Karussellfüllmaschinen mit mehreren Füllköpfen schwer durch manuelle Überwachung der Maschinenparameter erkennbar, auch deshalb, weil der Innendruck von Flaschen bei vielen Maschinen aus Kosten- und Hygienegründen nicht sensorisch erfasst wird. Im vorliegenden Beispiel wurden deshalb bei einer ersten explorativen Analyse Daten aus der Maschine selbst, aber auch aus vor- und nachgelagerten Prozessschritten einbezogen.
Dabei wurden mehrere Prädiktoren ermittelt, die für ein Vorhersagemodell einen besonders hohen Informationsgehalt liefern. Unter anderem:
- CO2-Verbrauch: Unübliche Erhöhung des Verbrauchs bei Leckagen gegenüber dem Normalbetrieb
- Abgefülltes Produkt: Messwerte variieren stark abhängig je abgefülltem Produkt, da für jede Biersorte unterschiedliche Abfülldrücke notwendig sind (Pilsner, Weizen …).
- Momentane Abfüllrate: Die Kenntnis über die Geschwindigkeit der Anlage kann reguläre Veränderungen in den Messwerten normieren und als unkritisch einstufen.
- Verschiedene Zeitmessungen (u. a. Ventilschaltzeiten): Diese geben Aufschluss über den Verschleiß von Dichtungen und Leckagen im Druckluftkreislauf.
Eine weitere im Training des Modells als „Zielvariable“ verwendete Variable ist die Ausschussrate in der Qualitätskontrolle, da diese zweifelsfrei – auch unabhängig von menschlichen Beobachtungen – einen Fehlerzustand markiert. Die zeitlich unmittelbar vor diesen Fehlerzuständen gemessenen Daten sind also für die Erkennung von Fehlermustern besonders interessant. Wichtig ist dabei zu verstehen, dass die einzelnen Messungen für sich isoliert betrachtet keine nennenswerten Muster erkennen lassen, da diese erst hervortreten, wenn mehrere unterschiedliche Messreihen (siehe „CO2-Verbrauch“ und „Ventilschaltzeiten“) in Verbindung mit Kontextdaten (siehe „abgefülltes Produkt“) betrachtet werden.
Auf Basis des Modells ist es nun möglich, verständliche Kennzahlen wie einen Healthscore – also einen Gesundheits-Index – zu errechnen und über leicht interpretierbare Visualisierungen die Verschleißtrends sichtbar zu machen. Werden diese Erkenntnisse den zuständigen Mitarbeitern jederzeit sichtbar und über Alarmierungen bereitgestellt, lassen sich folgende Mehrwerte heben:
- Kosteneinsparungen bei Instandhaltung und Produktion: Verhinderung unnötigen Ausschusses, der letztendlich durch nicht erkannten Materialverschleiß in der Abfüllanlage verursacht wird.
- Längere Vorwarnzeiten: Es bleibt ausreichend Zeit für die Vorbereitung der Wartung, angefangen von der Zusammenstellung der Ersatzteile bis hin zur Instruktion der Werker.
- Verhinderung ungeplanter Ausfälle: Zusammenlegung bereits geplanter Reparaturen verringert Ausfallzeiten
4. Aufbau einer Predictive-Maintenance-Lösung
Systemarchitektur
Der Aufbau eines Systems zur Erfassung, Verarbeitung, Analyse, Speicherung und Darstellung von Prozessdaten ist durch die in den letzten Jahren gereiften Softwaresysteme mit vertretbarem Aufwand umsetzbar. In Abbildung 8 ist auf hoher Ebene eine typische IT-Architektur für ein einzelnes Werk dargestellt.
IIoT-Gateway – Zunächst ist es notwendig, Daten aus verschiedenen Quellen in ein Analyseformat zu transformieren. Dabei werden nur die für die Analysen notwendigen Daten in der benötigten Granularität abgezweigt. In besonderen Fällen können die Analysen auch vollständig auf den Geräten im Shop Floor (sog. „Edge Computing“) durchgeführt werden.
Übertragung – Im Zuge der Entwicklung im IoT-Bereich haben sich für die Übertragung von Sensordatenströmen durch unterneh-mensinterne Wide-Area-Networks oder das Internet spezialisierte Protokolle herausgebildet. Bekannte Protokolle sind hier CoAP („Constrained Application Protocol“) und MQTT („Message Queue Telemetry Transport“).
Stream Processing & Analytics Engine – Da Prognosemodelle in der Regel mit Datenzeitfenstern arbeiten, werden mithilfe von Stream Processing, also der Verarbeitung von Datenströmen, statistische Parameter (Mittelwerte, Minimalwerte, Maximalwerte, Standardabweichungen) bestimmt. Diese Werte werden gemeinsam mit den Rohdaten durch die „Analytics Engine“ von den vorgefertigten Prognosemodellen bewertet („Scoring“).
Data Lake – „Data Lakes“ sind im Kontext von IIoT-Systemen spezielle Zeitreihendatenbanken, in welchen die namensgebenden Zeitreihen möglichst in ursprünglicher Taktrate und Genauigkeit abgespeichert werden. Diese erlauben, sich auch im Nachhinein explorativ durch die Daten zu bewegen, ohne lange auf zu generierende Berichte warten zu müssen.
Feedback – Der Weg zurück in den Shop Floor schließt den Regelkreis durch die Übermittlung der Analyseergebnisse an die zuständigen Mitarbeiter über Dashboards, Benachrichtigungssysteme oder die Integration in ein Ticketsystem, über welches automatisch Prüf- oder Wartungsaufträge verschickt werden.
Prozessintegration
Predictive Maintenance ist nicht nur als alleinstehendes Analysewerkzeug zu betrachten, sondern muss als Prozess gelebt und entsprechend in die bestehenden Wartungs- und Produktionsabläufe integriert werden. Die vom System zurückgemeldeten Ergebnisse aus der Analyse stellen einen kritischen Punkt in der gesamten Prozesskette dar und müssen zum richtigen Zeitpunkt den passenden Ansprechpartnern gemeldet werden. Der Nutzen der exaktesten Prognosen kann nicht gehoben werden, wenn die notwendigen Verantwortlichen vom System aufgrund technischer Einschränkungen nicht rechtzeitig informiert werden können. Dabei gilt es, drei Kriterien für die Aufbereitung der Ergebnisse zu erfüllen:
• Prozessfähige Visualisierungen müssen die direkte Ableitung von Maßnahmen erlauben. Beispiele: Das Vorziehen geplanter Wartungen oder die Reduktion eines Maschinentakts.
• Publikumsgerechte Darstellung steigern die Akzeptanz der Lösung, schaffen Vertrauen in die Erkenntnisse und ermöglichen transparente Entscheidungen. Je nach Empfänger müssen somit auf Anforderungen der einzelnen Teams die passenden Visualisierungen erstellt werden.
• Einfacher Zugang zu den Ergebnissen durch die passende technische Bereitstellung an mehreren Stellen im Prozess erlaubt es allen am Arbeitsprozess beteiligten Mitarbeitern mit konsistenten Daten, Meldungen und Visualisierungen zu arbeiten, vom Planungskreis über den Schichtleiter im Leitstand, und den Maschinenführer an der Anlage bis zum Instandhalter, der über mobile Anwendungen und Benachrichtigungen mit den jeweils relevanten Ereignissen versorgt wird.
Diese Kriterien gehen mit einer dauerhaften Pflege und Anpassung der Lösung einher. Analysemodelle müssen in regelmäßigen Abständen hinterfragt werden, um diese je nach Bedarf an Änderungen im Produktionsprozess anzupassen, Modelle zu korrigieren oder auch neue Datenquellen in der Analyse abzubilden.
Betriebsmodelle
Der Betrieb der Lösung ist aus technischer Sicht in verschiedenen Varianten möglich. Für die meisten Unternehmen eignet sich eine Cloud-basierte Lösung, bei welcher werkseitig nur wenige kleine Komponenten (IIoT-Gateways) Daten sammeln, während die eigentliche Verarbeitung und Auswertung der Daten in einem hochverfügbaren und skalierbaren System in der Cloud betrieben wird. Den Cloud-seitigen Betrieb und die Anbindung der Datenquellen an die Gateways bieten in der Regel IT-Dienstleister als Komplettpaket an, so dass seitens des Unternehmens nur die Notwendigkeit besteht, sich fachlich mit der Lösung auseinanderzusetzen.
In manchen Fällen ist auch ein Betrieb auf der eigenen Infrastruktur sinnvoll, nämlich dann, wenn Werke aufgrund einer schmalbandigen Anbindung ans Internet oder konzernspezifischer Vorgaben Anwendungen nicht ohne weiteres außerhalb der werkseigenen Firewall betreiben dürfen. In solchen Fällen funktioniert die Einführung eines Predictive-Maintenance-Systems reibungsloser und schneller als ein „On-Premises“-Projekt.
Bietet sich jedoch die Möglichkeit, Infrastruktur bei einem Cloud-Anbieter wie Amazon Web Services, Microsoft Azure oder IBM Cloud zu nutzen, so können kleinere Investitionen und schnelle technische Umsetzbarkeit einen Vorteil gegenüber dem klassischen Softwarekauf und -betrieb bieten, da das Unternehmen die notwendigen Kapazitäten an Servern und Betriebspersonal für die Analytics-Anwendungen nicht selbst aufbauen muss. Diese Variante macht es dann auch möglich, sich mit Predictive Maintenance um kleinere Anwendungsfälle zu kümmern, bei denen der finanzielle Mehrwert durch vorausschauende Wartung durch die hohen Betriebskosten im eigenen Rechenzentrum wieder verbraucht werden würde.
In den seltensten Fällen rentiert sich die Eigenentwicklung eines PM-Systems. Diese Variante eignet sich in den meisten Fällen nur für Anlagenhersteller, die vorausschauende Wartung als Dienstleistungspaket mitsamt ihrer Anlagen verkaufen möchten. Letztendlich wird die Fragestellung „Make or Buy“ für die meisten Lebensmittelhersteller eher zu eine „Rent or Buy“-Frage. Solche „As-a-service“-Modelle werden bei den Cloud-Varianten in Zukunft den Markt bestimmen: Lebensmittelhersteller kaufen von Dienstleistern keine Predictive-Maintenance-Software, sondern nur die eigentliche Analyseleistung und die damit verbundenen Erkenntnisse. Die notwendige IT-Infrastruktur und programmatischen Anpassungen bleiben in der Verantwortung der Spezialisten für IT und Datenanalyse, so dass sich die Unternehmen selbst auf die Optimierung und Verbesserung ihrer Kernprozesse in der Lebensmittelherstellung konzentrieren können.
5. Zusammenfassung
Unternehmen der Lebensmittelindustrie verfügen meist über eine gewachsene, heterogene Produktionslandschaft. Produktions- und Instandhaltungsleiter erkennen zwar die Notwendigkeit, sich mit neuen Technologien und prädiktiver Instandhaltung zu beschäftigen, oft fehlt aber der konkrete Ansatzpunkt oder das Thema ist zu komplex und geht im Tagesgeschäft unter. Dabei kann gerade die Lebensmittelindustrie durch vorausschauende Wartung nicht nur Kosten sparen, sondern auch die unabdingbare Lieferfähigkeit für den Handel sicherstellen.
Für den Einstieg empfiehlt sich ein Proof-Of-Concept mit einem überschaubaren Anwendungsfall und beherrschbarer Komplexität. Oft lassen sich hieraus bereits „Quick Wins“ generieren und der Produktionsprozess optimieren. Professionelle IT-Dienstleister unterstützen von der ersten Analyse über die Auswahl des passenden Betriebsmodells bis zur Implementierung einer skalierbaren Lösung und deren Betrieb. Ein schrittweises und pragmatisches Vorgehen schützt vor Fehlinvestitionen und sichert den Erfolg.
Kontakt
Carola K. Herbst • DLG-Fachzentrum Lebensmittel • Tel.: +49 (0) 69 24 788-240 • C.Herbst@DLG.org