Riesige Datenmengen kommen aus verschiedenen Quellen und Geräten in unterschiedlichen Formaten: Um aus ihren Daten Mehrwert generieren zu können, müssen produzierende Unternehmen sie zunächst vereinheitlichen, organisieren und Transparenz schaffen. Das gelingt mit einem zentralen Datenhub.
Die Datengenerierung im Industrial Internet of Things (IIoT) und in Industrie 4.0 bietet große Chancen, die industrielle Produktion zu automatisieren und die Effizienz zu steigern. „Gesamtlösung statt Einzeltool-Umgebung“, lautet die Devise bei der Erschließung der Daten. Der Data Hub (eine zentrale Software, die die nahtlose gemeinsame Nutzung und Verwaltung von Daten erleichtert) sollte dabei speziell auf die Bedürfnisse von Big-Data-Management und Datensicherheit ausgerichtet sein.
Woran scheitern Industrie 4.0-Projekte bisher häufig?
Um von den Daten zu profitieren, müssen Unternehmen zunächst die damit einhergehenden Herausforderungen in den Griff bekommen. Denn die Datenmengen sind enorm gestiegen und die Daten stammen aus verschiedenen Quellen, etwa Sensoren oder Maschinen. „Daraus resultieren Formatvielfalt und heterogene Datenqualität – Daten liegen strukturiert, semi- oder unstrukturiert oder als ,Dark Data‘ vor. Die Ablageorte verteilen sich zudem über Datensilos, lokale Legacy-Systeme oder Cloudspeicher“, erklärt Amadeus Thomas, Geschäftsführer von JET-Software, einem Spezialisten für Hochleistungs-Datenmanagement und Datensicherheit. Das Unternehmen ist der deutschlandweit einzige Reseller für Big-Data-Lösungen von IRI Inc. „Das hat zur Folge, dass Unternehmen oft darüber im Unklaren sind, wo ihre Daten liegen, welches Format sie haben, ob sie aktuell sind, was sie konkret beinhalten oder ob es Dubletten gibt.“
Alle diese Daten sollen nun aber gespeichert und archiviert, migriert und integriert werden, um sie nutzbar zu machen. Für Unternehmen ist unter diesen Voraussetzungen eine wertgewinnende Datenanalyse und -interpretation nur mit hohem Aufwand verbunden. Skalierbarkeit herzustellen, wird zur Herausforderung. „Zudem müssen Sicherheit und ein umfassender Datenschutz gewährleistet werden – auch über Landesgrenzen hinweg“, fügt Amadeus Thomas hinzu.
All diese Herausforderungen im Datenmanagement sind darüber hinaus im Kontext grundlegender Probleme wie Energiemanagement im Rechenzentrum bei steigendem Datenaufkommen versus Klimaneutralität und dem allgegenwärtigen Fachkräftemangel in der Informationstechnik-Branche zu sehen.
Einzellösungen und Sicherheitsrisiken
Unternehmen greifen gerne zu verschiedenen Tools, um ihr Datenmanagement zu organisieren. Doch je mehr dieser Einzellösungen im Einsatz sind, desto komplexer wird die Integration. Zum einen, weil die Tools richtig bedient werden müssen, zum anderen, weil sich aus verschiedenen Anwendungen oft verschiedener Hersteller wiederum Kompatibilitätsprobleme ergeben. „Ein durchgängiger Prozess ist damit kaum zu erreichen“, so Amadeus Thomas. Die Akkumulation von Tools ist durch Ausgaben für Miete bzw. Kauf, vor allem aber Wartung und Weiterentwicklung zudem ein Kostenfaktor.
Ein weiteres Argument gegen eine Multitool-Umgebung sind laut Thomas die daraus resultierenden, höheren Sicherheitsrisiken. Und das ist nicht nur auf Bedienfehler oder falsche Konfigurationen zurückzuführen: „Es fehlt die Transparenz und es ist schwierig, den Überblick über Datenzugriffe und -bewegungen zu behalten, sie zu erkennen, zu protokollieren, zu überprüfen und letztlich zu schützen.“ Jedes Tool oder jede Plattform in der Umgebung kann wiederum eigene Sicherheitsprobleme mitbringen und damit erhöht sich die Angriffsfläche. Schon der einfache Datenaustausch kann Sicherheitslücken verursachen. Sind Datenverluste und Angriffswege nicht nachzuvollziehen, können Unternehmen nur schwer auf Sicherheitsvorfälle reagieren und ihren Meldepflichten nachkommen.
Auch die Verwaltung von Zugriffsrechten und Berechtigungen wird eine Mammutaufgabe, es entstehen Schwierigkeiten bei der Protokollierung und Überwachung. Die Einhaltung von Datenschutz und Compliance wird schwieriger, da verschiedene Tools unterschiedliche Anforderungen haben und auch verschiedene Rechtsgebiete berücksichtigt werden müssen. Unternehmen müssen dabei die Sicherheit jedes Tools dauerhaft gewährleisten – eine zeit-, personal- und kostenintensive Aufgabe. Für Unternehmen bedeutet alles dies deutliche Einschränkungen in der Datennutzung: Die Verfügbarkeit verzögert sich, es entstehen Unsicherheiten in Bezug auf die Datenqualität und insgesamt höhere Betriebs- und Personalkosten bei fehlender Skalierbarkeit. „Innovationen und Weiterentwicklungen interner Prozesse steht dies eindeutig im Wege“, warnt Thomas.
Eine zentrale Datenplattform und ihre Funktionen
„Wer hingegen aus seinen Daten Erkenntnisse generieren will, muss in der Lage sein, die Datenquellen gezielt anzusteuern, die Daten zu harmonisieren und zu integrieren – auch und vor allem über verschiedene Quellen und Formate hinweg“, sagt Thomas weiter. Systeme und Geräte müssen dafür interoperabel sein. Um dies umzusetzen, benötigen Unternehmen eine umfassende Datenmanagement-Plattform, die entwickelt wurde, um Daten über ihren gesamten Lebenszyklus hinweg zu verarbeiten. Eine vollintegrierte Suite wie „IRI Voracity“ erlaubt es Unternehmen, den maximalen Wert aus ihren Daten zu erzielen. „IRI Voracity unterstützt derzeit bereits über 150 Datenquellen wie Sensoren oder Datenbanken, unabhängig davon, ob sie sich im Netz, lokal oder in der Cloud befinden“, erläutert Thomas die Features der Lösung.
Eine solche Plattform ist zunächst in der Lage, Daten zu ermitteln und sie aus verschiedenen Quellen wie relationalen Datenbanken, Dateien, Cloud-Speicher und Big-Data-Systemen, aber auch Sensoren und IoT-Geräten zu extrahieren. Wichtig ist, dass sowohl strukturierte als auch unstrukturierte Daten erfasst werden können. IRI Voracity bietet hier Transformations- und Datenbereinigungsfunktionen, um Daten zu harmonisieren. So wird eine konsistente Qualität sichergestellt und eine nahtlose Migration zwischen Systemen und Plattformen möglich, etwa bei der Aktualisierung von Legacy-Systemen oder beim Wechsel zu neuen Technologien. Durch die Integration in eine zentrale Plattform entsteht ein Überblick über die gesamte Produktionsumgebung.
Daten-Echtzeit-Analyse, Compliance, Skalierbarkeit…
Eine Plattform benötigt außerdem Werkzeuge, um die Datenlebenszyklen zu verwalten und die Datenqualität zu überwachen. Dafür sind Funktionen wie Datenvalidierung, -prüfung und -plausibilisierung sinnvoll, um inkorrekte oder fehlerhafte Daten zu identifizieren und zu korrigieren. „Natürlich hält eine Plattform Echtzeit-Analysefunktionen vor, um Muster zu erkennen und Einblicke als Entscheidungsgrundlage für Geschäftsprozesse zu gewinnen“, fügt Thomas hinzu.
Nicht zuletzt muss die Plattform die Einhaltung von Datenschutz- und Compliance-Vorschriften sicherstellen, etwa den DSGVO-konformen Umgang mit Daten, die Überwachung von Datenbewegungen, Audit-Protokolle oder die Verwaltung von Zugriffsrechten und Berechtigungen. Eine solche Plattform sollte sich nahtlos in bestehende Systeme und Prozesse integrieren lassen und mit verschiedenen Industrie-4.0-Technologien interagieren. Auch Skalierbarkeit ist wichtig: Sie muss mit wachsenden Datenmengen und Anforderungen in Industrie-4.0-Anwendungen Schritt halten.
Anwendungsfälle in der Praxis
Ein solcher Datenhub erlaubt die Datenerfassung in Echtzeit: Sensoren und IoT-Geräte in der Produktionsumgebung sammeln kontinuierlich Werte wie Temperatur, Druck, Feuchtigkeit und Schwingungen. „Durch die damit mögliche Echtzeit-Analyse können vordefinierte Schwellenwerte für Qualitätsparameter überwacht und bei Abweichungen Alarme ausgelöst werden“, verdeutlicht Thomas einen möglichen Ablauf. „Auch Anwendungsfälle wie proaktive Instandhaltung werden möglich, wenn sich durch die Analyse von Sensordaten frühzeitig Anlagenverschleiß bemerkbar macht.“
Die kontinuierliche Datenüberwachung und -analyse erlaubt es darüber hinaus, Probleme in der Produktion schnell zu erkennen und zu beheben, was zu einer höheren Produktqualität und geringeren Ausschussraten führt. Fertigungsprozesse können durch die Analyse auch historischer Daten und die Erkennung von Mustern optimiert werden; hierdurch steigen Effizienz, Geschwindigkeit und Reaktionsfähigkeit ebenfalls. Auch das Produktdatenmanagement für die Qualitätskontrolle oder die Nutzung von Ressourcen wie Energie und Rohstoffen lassen sich somit optimieren.
Die Vorteile eines Datenhubs
Mit integrierten Datenmanagement-Lösungen in der Industrie 4.0 können Unternehmen das volle Potenzial von Big Data ausschöpfen. Die Verwendung von nur einer Konsole erleichtert nicht nur die Bedienung, da mit einer Oberfläche alle Funktionen abgedeckt sind, sondern spart auch enorme Kosten bei der Anschaffung und Wartung. Eine hohe Datenqualität und -konsistenz, die Integration sowie die Automatisierung von Datenmanagementprozessen reduzieren den manuellen Aufwand und beschleunigen gleichzeitig die Datenverarbeitung. Effizienteres Datenmanagement und die Optimierung von Prozessen führen zu Kosteneinsparungen in der Produktion und Wartung. Fundierte Entscheidungen auf Grundlage aktueller Informationen werden möglich – und eine schnelle Reaktionszeit. Big Data ermöglicht hier auch die Entwicklung neuer Produkte und Dienstleistungen. Damit steigern Unternehmen ihre Wettbewerbsfähigkeit.
Die Einhaltung von Qualitätsstandards und -vorschriften wird durch die Unterstützung bei der Erstellung von Berichten und Dokumentation vereinfacht. Da die Datenqualität und -sicherheit überwacht und dokumentiert werden kann, fällt es ebenfalls leichter, Datenschutzvorschriften einzuhalten.
Fazit
Unternehmen, die den vollen Nutzen aus ihren generierten Daten ziehen wollen, benötigen eine Big-Data-Datenmanagement-Plattform, die in der Lage ist, den gesamten Datenlebenszyklus abzubilden: von der Erfassung und Ermittlung, ihrer Integration und Migration, bis hin zu Verwaltung, Plausibilisierung und Echtzeit-Analyse. So entstehen Ordnung und Transparenz im sonst üblichen „Datenchaos“: Unternehmen können schneller bessere Entscheidungen treffen, die Optimierungspotenziale ihrer Produktion erkennen und heben.