Big-Data-Analysen werden gerne als Schlüssel für zukünftige Industrie-4.0-Konzepte angesehen. In der Praxis stehen Anwender bei der Umsetzung und Einführung solcher Methoden jedoch vor großen Herausforderungen. Um die Mechanismen, die einer Big-Data-Analyse im Weg stehen, genauer zu untersuchen, führte die Technische Universität München eine Umfrage unter NAMUR-Mitgliedern durch. In der NAMUR (Interessengemeinschaft Automatisierungstechnik der Prozessindustrie) sind derzeit 152 Unternehmen vertreten.
Umsetzung von Datenanalysen läuft schleppend
Rund zwei Drittel der Befragten sind davon überzeugt, dass die Datenanalyse prinzipiell zur Optimierung von Anlagen geeignet ist. An erster Stelle wurde dabei die Unterstützung von Operatoren im laufenden Betrieb genannt, gefolgt von der Diagnose von Prozessen und Komponenten sowie einem verbesserten Verständnis für Zusammenhänge.
Die Umsetzung verläuft jedoch in den Betrieben eher schleppend. „Unstrukturierte Daten sind das größte Hindernis beim Einsatz von Big Data-Analysen in der Prozessindustrie“, erklärt Prof. Dr.-Ing. Birgit Vogel-Heuser, Leiterin des Lehrstuhls Automatisierung und Informationssysteme an der Technischen Universität München. „Dies bestätigen auch die Ergebnisse unserer Umfrage.“
Messgeräte in chemischen Anlagen produzieren eine Vielzahl an Nutzungs-, Wartungs- und Qualitätsdaten. Diese werden aber meist in verschiedenen Datenbanken gesammelt und selten mit einer synchronen Zeitstempelung versehen. Zusammenhänge sind im Nachhinein schwer auszumachen, bzw. sie müssen für eine Analyse meist händisch zusammengefügt werden.
Dies sind aber nicht die einzigen Herausforderungen. „Weiter wurden in der Umfrage die fehlende Definition eines allgemeinen Datenmodells, die Unterschiedlichkeit der Schnittstellen und der hohe Implementierungsaufwand bemängelt“, so Prof. Vogel-Heuser.
TU München entwickelt skalierbares Integrationskonzept zur Datenaggregation
Um die Herausforderung der unstrukturierten Daten besser zu meistern, entsteht derzeit mit SIDAP ein Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie. Daran arbeiten Betreiber (Bayer, Covestro, Evonik), Armaturenhersteller (Samson), Feldgerätehersteller (Krohne, Sick), IT-Unternehmen (Gefasoft, IBM) und die Technische Universität München zusammen.
Hierbei sollen aus großen Datenmengen, die u.a. von vorhandenen Messgeräten stammen, neue Zusammenhänge ermittelt werden. Gleichzeitig wird eine datengetriebene sowie serviceorientierte Integrationsarchitektur entwickelt.
„Damit werden Messdaten, Informationen aus der Instandhaltung sowie Daten aus dem Engineering und den Prozessleitsystemen unter Berücksichtigung ihrer unterschiedlichen Semantik in abstrahierter, integrierter und zugriffsgeschützter Form für interaktive Analysen zugänglich“, so Prof. Vogel-Heuser. Erklärtes Ziel ist es, mit aufbereiteten Daten aus heterogenen Quellen die Anlagenverfügbarkeit zu erhöhen, indem Ausfälle vermieden und die Wartung angepasst wird.
Umfrage bei der NAMUR: Big-Data-Analysen scheitern an unstrukturierten Daten

Bildquelle, falls nicht im Bild oben angegeben:
Jetzt Newsletter abonnieren
Brennstoff für Ihr Wissen, jede Woche in Ihrem Postfach.
Hier anmelden
Software-defined Automation: Emerson erweitert Automatisierungsplattform
Mit DeltaV Version 16.LTS stellt Emerson eine weiterentwickelte Automatisierungsplattform vor, die softwaredefinierte Steuerung, verbesserte Datenintegration und erhöhte Cybersicherheit kombiniert. Ziel ist eine skalierbare, OT-fähige Unternehmensplattform für vernetzte industrielle Prozesse.
Halbleiterversorgung: TU München stellt EU-weit ersten 7-Nanometer-Chip her
An der TU München (TUM) ist der EU-weit erste KI-Chip mit moderner 7-Nanometer-Technologie entstanden. Prof. Hussam Amrouch entwickelte den neuromorphen Chip auf Grundlage des Standards des weltweit führenden Chip-Produzenten TSMC. Künftig will der Professor für KI-Prozessor-Design zusammen mit seiner Forschungsgruppe jährlich mindestens drei neue Designs entwerfen, die ab 2028 von der European Semiconductor Manufacturing Company (ESMC) in Dresden gefertigt werden sollen.
Klimaneutrale Chemie: Versorgung mit nachhaltigem Kohlenstoff ist möglich
Kohlenstoff ist ein zentraler Rohstoff in der Chemieindustrie – stammt aber heute noch überwiegend aus fossilem Öl, Gas oder Kohle. Die Verfügbarkeit nachhaltiger Kohlenstoffquellen ist für die klimaneutrale Transformation der Branche daher entscheidend. Das nun von der Initiative IN4climate.NRW veröffentlichte Diskussionspapier „Kohlenstoff – aber nachhaltig!” zeigt: Die Kohlenstoffbedarfe der deutschen Chemieindustrie lassen sich nachhaltig decken. Importe sind dafür nicht zwingend erforderlich, wohl aber besteht dringender politischer Handlungsbedarf. Das Diskussionspapier steht zum kostenfreien Download bereit.
Neue VDI-Richtlinie für die Qualität von Längenmessungen erschienen
Ob in der Fertigungstechnik und Qualitätssicherung, im Maschinen- und Anlagenbau, in der Automatisierungs- und Prüftechnik oder Instandhaltung: Taktile Längenmesseinrichtungen mit analoger Messwerterfassung kommen überall dort zum Einsatz, wo kleinste Längenänderungen zuverlässig erfasst und weiterverarbeitet werden müssen. Damit diese Messdaten verlässlich bleiben, sind regelmäßige Prüfung und Kalibrierung unverzichtbar. Genau hier setzt die neue Richtlinie VDI/VDE/DGQ/DKD 2618 Blatt 14.1 an. Sie beschreibt praxisnah, wie Messtaster mit analoger Messwerterfassung fachgerecht geprüft und kalibriert werden.
atp weekly
Der Newsletter der Branche
Sie möchten das atp magazin testen
Bestellen Sie Ihr kostenloses Probeheft
Überzeugen Sie sich selbst: Gerne senden wir Ihnen das atp magazin kostenlos und unverbindlich zur Probe!





