Der Cloud vorgelagert: Edge Computing für komplexe Datenanalysen

So begegnen Sie technischen und rechtlichen Herausforderungen im Zuge von Data AnalyticsUnsere Leistungen zu Edge Computing

Sicherheitsbedenken und Performance-Engpässe (angesichts der wachsenden Datenmengen) gestalten die Verarbeitung und Analyse von Daten in der Cloud zunehmend schwierig. So spricht einiges für eine Zwischenschicht: den Edge. Es zeichnet sich ab, dass Edge Computing das „next big thing“ wird. 

Wie Edge Computing insbesondere bei aktuellen Herausforderungen von Maschinen- und Anlagenbauern helfen kann, ist Thema des folgenden Blogbeitrags.

Technische und rechtliche Herausforderungen der Cloud

Bei Maschinen- und Anlagenbauern aller Größen generiert das Industrial Internet of Things heute mehr Daten denn je zuvor. Oft kommen Analyse-Tools mit künstlicher Intelligenz in der Public Cloud zum Einsatz, um sie auszuwerten. Das ist insofern sinnvoll, als KI große Datenmengen als Lernmenge benötigt und diese liegen naturgemäß in der Public Cloud und weniger auf on-premises installierten Systemen. In der Cloud kann man zudem Out-of-the-Box-Lösungen für Datenanalyse und KI nutzen.

Allerdings sind noch immer viele Unternehmen vorsichtig bei diesem Schritt. Das hat zum einen rechtliche, zum anderen technische Gründe. In vielen Geschäftsprozessen ist die Ausleitung von Daten in die Cloud aus Governance-Gründen nicht erlaubt. In IIoT-Daten steckt ein hohes Maß an Intellectual Property, also (geheimes, werthaltiges) Wissen über Produkte und Produktionsverfahren, die man nicht veröffentlichen bzw. teilen möchte oder darf. Denkt man zum Beispiel an die Fertigung von Rüstungsgütern oder Teilen/Werkstücken im Kundenauftrag, wird der schützenswerte Charakter solcher Daten offensichtlich. Zweites Problem ist das immer größere Volumen. Wenn eine Maschine heute mehrere 1.000 Datenpunkte im Millisekunden-Bereich erzeugt, ist eine Echtzeitverarbeitung in der Cloud aus Latenzgründen kaum mehr möglich.

Eine Lösung dafür ist das Edge Computing, weil es die Vorteile von Local- und Cloud-Computing bedarfsgerecht vereint.

Edge Computing als Vorbereitung für die Cloud

Was ist Edge Computing?

Edge Computing lässt sich als Vorbereitung für die Cloud verstehen – eine On-premises-Lösung auf dem Edge mit Funktionen für Analytik, Vorverarbeitung und dezentrale Intelligenz, die zusammen mit der Cloud eine Art Kontinuum bildet. Near Edge bezeichnet das Edge Computing in Cloudnähe, Far Edge in Maschinennähe. Die Unterscheidung erlaubt im Bedarfsfall skalierbare Architekturen im Edge-Cloud-Kontinuum.

Am Edge lassen sich IoT Daten so aggregieren und anonymisieren, dass sie in der Cloud verwendet werden können – dies ist der rechtliche Aspekt. Voraussetzung dafür sind Konnektoren zwischen Edge und Cloud zur Datenübertragung sowie Datenmodelle, die auf beiden Seiten Datenintegration unterstützen. Was die technischen Vorteile angeht, lassen sich dank neuer und skalierbarer Technologien auch hohe Datenvolumina am Edge ohne Latenzprobleme bearbeiten. Dadurch werden Echtzeitanalysen erst möglich. Eine Warnung, dass die Maschine aufgrund Überschreitens kritischer Grenzen in wenigen Minuten ausfallen könnte, kommt dann auch wirklich zur rechten Zeit, ebenso wie ein sofortiger Produktionsstopp im Rahmen einer datenbasierten Qualitätskontrolle, die jedes einzelne Werkstück unmittelbar nach seiner Herstellung prüft. Auf diese Weise werden Ausschussmengen reduziert und nebenher nachhaltig Material- und Energiekosten eingespart. In solchen Fällen großer zu analysierender Datenmengen und schnell benötigter Antworten ist Edge Computing im Grunde unumgänglich. 

X-INTEGRATE Lösung „Data in Motion"

Für das alleinige Aufbereiten der Daten (Aggregation, Anonymisierung und Analyse) ist auch noch keine KI zwingend erforderlich. In dem von X-INTEGRATE entwickelten Edge-Lösungsansatz „Data in Motion“ können auf der einen Seite Maschinen-Sensordaten in nahezu Echtzeit erfasst, vorverarbeitet und analysiert werden. Auf der anderen Seite werden beim „Data at Rest“-Ansatz zusätzlich Rohdaten oder bereits vorverarbeitete Daten zur Prozessdokumentation, für nachgelagerte oder komplexe Analysen in Verbindung mit an anderer Stelle erhobenen Daten langfristig vorgehalten. Letztere dienen auch als Input für unüberwachtes Machine Learning zur Mustererkennung sowie für überwachtes Lernen zur Ableitung von Prognosen für unbekannte Daten. Inzwischen gibt es auch Algorithmen, die ein verstärkendes Lernen „on the Edge“ erlauben und durch die Interaktion mit der Umgebung zur Modelloptimierung beitragen. Hiervon profitieren insbesondere weitgehend abgeschottete Edge-Umgebungen, die auch längerfristig cloud-unabhängig und dennoch verlässlich funktionieren müssen.

Die Edge-Lösungen von X-INTEGRATE sind skalierbar; Producer-Bestandteile zur Datenaufnahme, Analytics-Komponenten sowie Consumer-Komponenten (zum Ausleiten der Daten) sind containerisiert verfügbar und können so anwendungsspezifisch und für den jeweiligen Use Case passgenau zusammengestellt werden. So wurde auf Basis von Open-Source-verfügbaren Applikationen eine echte Alternative zu den IoT-Frameworks namhafter Anbieter geschaffen, die insbesondere KMU einen schnellen und kostengünstigen Einstieg in die IoT-Welt und somit in neue digitale Geschäftsmodelle ermöglicht.

Unsere Kompetenz im Bereich Edge Computing

Mit Edge Computing können Sie Daten dezentral, direkt am Ort ihrer Entstehung, analysieren und auswerten – und zwar nahezu in Echtzeit. Damit ist es ein wichtiger Baustein für die Transformation datengetriebener Geschäftsprozesse und wird spätestens dann interessant, wenn Cloud Computing an seine Grenzen stößt.

Vorteile von Edge gegenüber Cloud Computing

  • Security, Privacy und Datenhoheit für den Eigentümer der Daten

  • Große Datenmengen werden zeitnah direkt am Ort ihrer Entstehung verarbeitet

  • Reduzierung von Datenvolumina in Richtung Private/Public Cloud

  • Unabhängigkeit von einer verfügbaren Cloud, z. B. für Umgebungen, in denen Systeme weitgehend autark arbeiten müssen/sollen

  • Optionaler Einsatz von KI/ML und somit Inferenceon theedge

  • Trainierte Modelle aus einer zentralen Cloud werden am Edge angewandt

  • Optimierung von öffentlich verfügbaren Modellen durch edge-trainierte Modelle

  • Data Mesh-Ansätze: Dezentrale, fachlich bzw. domänenorientierte Architektur für analytische Daten

Datenanalyse als Basis für neue Geschäftsmodelle

Natürlich werden Daten nicht aus Selbstzweck gesammelt. Vielmehr soll ihre Analyse als Basis für (neue) digitale Geschäftsmodelle dienen. Der Anlagenhersteller liefert Maschinen mit integrierter Sensorik, die sein Kunde, der Betreiber der Maschine, zu seinem Vorteil nutzt: Durch die Datenanalyse erzielt er Kostenvorteile, die er entweder selbst einbehalten oder an wiederum seine Kunden weitergeben kann – diejenigen also, die mit diesen Maschinen produzierte Werkstücke von ihm erwerben. Wettbewerbsvorteil für den Maschinenbetreiber: Er kann seine eigenen Produktionskosten optimieren und Werkstücke günstiger als der Wettbewerb anbieten.

Dies steigert die Wettbewerbsfähigkeit aller am Wertschöpfungsprozess beteiligten Stakeholder. Durch die Bereitstellung bzw. Erweiterung von Maschinen mit integrierten Edge Devices und hierauf vorinstallierten oder erweiterbaren Edge Applikationen können sowohl standardisierte als auch spezifisch angepasste Analyse-Tools eine Verfolgung der fertigungsbegleitenden Qualitätssicherung ermöglichen. Transparente ‚Pay per Use‘-Fakturierungsmodelle werden erst möglich, indem über Sensorik Verschleiß und Auslastung gemessen und basierend darauf der Maschinenverbrauch errechnet und fakturiert wird.

Beispiel Industrie

Es ist unerheblich, ob die Maschine beim Anlagenhersteller selbst steht und für seinen Kunden, den Maschinenbetreiber, produziert oder bei diesem direkt. Analog zur Wartung rechnet der Hersteller die Überlassung dann als „variablen“ Kostenbestandteil auf Basis der Nutzung ab, analog zum Kilometerleasing bei KFZs. Es wird gemessen, ob die Maschine im 1-, 2 oder 3-Schicht-Betrieb verwendet wird oder wie hoch ihre Belastung ist (z. B. durch Messung der Vibrationen im Betrieb). Wer daher sorgsam mit ihr umgeht, spart neben Wartungskosten noch durch verbesserten Werterhalt der Maschine. Durch temporäre Vermietung von Überkapazitäten wird im gleichen Atemzug die Anlage optimal ausgelastet.

Beispiel Gebäudemanagement

Viele weitere Business-Szenarien sind denkbar, etwa beim Gebäudemanagement: Durch die Integration von Daten aus Raumbuchungssystemen mit am Edge konsolidierten Sensordaten aus den einzelnen Etagen und Räumen kann die Wärmeabgabe (in einzelnen Etagen und Räumen) sowohl gezielt gesteuert als auch für das gesamte Gebäude hinweg optimiert werden. Pilotprojekte versprechen sich hier Einsparungen von ca. 25% der jährlichen Heizkosten.
Data in Motion

Man bezeichnet diesen Ansatz auch als „Data in Motion“: Die Daten werden dabei nicht zunächst irgendwohin abgespeichert und später analysiert („Data at Rest“), sondern direkt nach ihrer Generierung in nahezu Echtzeit verarbeitet, was Monitoring oder Alerting erst ermöglicht. Dies ist insofern sinnvoll, als viele Daten nur kurzfristig für eine Verarbeitung interessant sind. Man kann also genau selektieren, was nach der Analyse gelöscht und was dauerhaft aufbewahrt wird, weil man es später noch benötigt – in diesem Fall steht am Ende die Speicherung in einer Datenbank oder in einem Data Lake, je nach Use Case on-premises oder in der Cloud.

Shop- und Office-Floor integrieren

In die Cloud wird dann nur ein kleiner Teil der Shopfloor-Daten verschoben, um ihn dort etwa mit Officefloor-Daten aus ERP/CRM-Systemen zu integrieren. Dies funktioniert beispielsweise über herstellerneutrale Open-Source-Frameworks wie den „Open Integration Hub“ des Kölner Cloud EcoSystem e.V., der Technologie, Standard-Datenmodelle, Regelwerke und eine Community aus Konnektoren umfasst. Im Rahmen des vom BMWK geförderten Projekts OIHplus wurde das Framework um Komponenten zur industriellen Interoperabilität erweitert. KMU können dadurch ihre Anlagenprozesse und IoT-Daten vereinfacht digitalisieren und mit Daten aus dem Officefloor integrieren.

Fazit: Edge Computing als Vorstufe zur Cloud

Es lässt sich festhalten: Gerade für Industrieunternehmen ist der Einsatz von Edge Computing empfehlenswert, wenn es umfangreiche Datenanalysen geht. Herausforderungen wie die Verarbeitung großer Datenvolumina und Rechtskonformität bei der Übertragung in die Cloud werden so erfolgreich begegnet. Die X-INTEGRATE Ansätze "Data in Motion" und "Data at Rest" stellen eine sinnvolle Ergänzung dar. Mehr zu unseren Leistungen rund um Edge Computing lesen Sie hier.

Über den Autor: Stephan Pfeiffer

Stephan Pfeiffer ist seit der Gründung von X-INTEGRATE im Jahr 2007 als Projektleiter / Solution Architect tätig und verfügt in zahlreichen Industriebereichen über mehr als 20 Jahre Erfahrung in der Konzeption und Realisierung komplexer Prozess- und IT Lösungen. Stephan Pfeiffer verantwortet die Business Unit Consulting & Software Services und unterstützt Unternehmen jeder Größenordnung bei der Optimierung, Automatisierung und Digitalisierung ihrer Geschäftsprozesse. Der diplomierte Wirtschaftsinformatiker bringt in jedes Projekt erfolgreich angewandtes Praxiswissen ein, insbesondere im Bereich von datengetriebenen Geschäftsprozessen, innovativen Geschäftsmodellen und IT Architektur.

Stephan Pfeiffer
Prokurist / Head of Consulting & Software ServicesX-INTEGRATE Software & Consulting GmbHKontakt