Edge und Cloud – der perfekte Match

Lesezeit: 4 Min

Edge Computing entwickelt sich zum neuen Hype in der ICT. Aufbauend auf hybriden und Multicloud-Umgebungen wird der «Rand» der Infrastrukturen zunehmend zu deren verlängertem Arm. Damit lassen sich attraktive Use Cases umsetzen und Prozesse in der Datenverarbeitung beschleunigen. Werden Edge-Computing-Ressourcen und Public Cloud smart zu einer Edge Cloud kombiniert, kumulieren sich die Vorteile aus beiden «Welten».

Eine Zeitlang schien es, als würde der Rechencenter-Boom in der Schweiz kein Ende nehmen. Doch benötigen wir in der Tat immer mehr Datacenter, um die steigende Datenflut zu bewältigen? Einerseits bieten moderne Rechenzentren deutlich bessere Performance als ihre Vorgänger bei gleichzeitig weniger Platz- und Energiebedarf. Zugleich entstehen mit Edge-Computing neue Technologien an den «Rändern» der Infrastrukturen, die Daten dort verarbeiten, wo sie entstehen, so dass gar nicht alle davon überhaupt in einem zentralen Rechenzentrum ankommen müssen.

Am ehesten entfaltet Edge Computing seine Vorteile dort, wo es um geringe Latenzzeiten geht. Edge-Computing-Einheiten bestehen in der Regel aus agiler, schlanker und miniaturisierter Hardware, die am Entstehungsort der Daten spezifische vordefinierte Aufgaben erfüllen. Das bietet sich vor allem in IoT-Geräten an. Die Komponenten vor Ort priorisieren Information oder aggregieren diese für die Cloud. Das spart Bandbreite und beschleunigt Reaktionszeiten. Das ist zum Beispiel in solchen Fällen von unschätzbarer Wichtigkeit, wenn Aktionen wie etwa eine Not-Ausschaltung in Echtzeit ausgelöst werden können muss. Im nachgelagerten Rechenzentrum oder in der Cloud kann hingegen im Gegenzug die Arbeitsbelastung reduziert werden bzw. können komplexere Aufgaben übernommen werden, für die skalierbare Rechenressourcen notwendig sind.

Vielfältige Use Cases für Edge Computing

Neben der Anwendung in IoT-Geräten findet Edge Computing auch in ganzen, vernetzten Anlagen seine Anwendung. Werden beispielsweise bei komplexen Logistikprozessen vor Ort Gerätschaften zueinander positioniert und müssen entsprechend orchestriert angesteuert werden, kann dies über ein Edge-Computing-System in Echtzeit geschehen. Aus der Cloud heraus erhält das jeweilige Device (ein Fahrzeug, eine Fertigungslinie etc.) seine Route, doch deren Weg entlang können über einen entsprechend programmierten Edge-Knoten Hindernisse umfahren oder Türen geöffnet werden. In der Public Cloud bleiben hingegen alle zu überwachenden IoT-Komponenten zentral angebunden. Aus deren gesammelten Datenpools heraus lassen sich dann Anwendungen wie Predictive Maintenance ableiten. Wenn sich aus der Vielzahl an Daten, die in den Fahrzeugen oder Anlagekomponenten anfallen und die in der Public Cloud verarbeitet werden, Muster herauskristallisieren, kann die Wartung optimiert werden. So wird aus Public Cloud und Edge-Knoten ein eingespieltes Team.

Edge Computing kann des Weiteren für die Qualitätskontrolle eingesetzt werden. Die Edge-Knoten überwachen beispielsweise den Datenstrom von Sensoren in der Produktion und stellen sicher, dass vordefinierte Schwellenwerte nicht überschritten werden. Die Anlage muss sofort gestoppt werden, falls die Schwellenwerte erreicht werden; in diesem Fall kann nicht auf die Rückmeldung aus der Cloud gewartet werden, die im Zweifelsfall um die entscheidenden Sekundenbruchteile verzögert eintrifft.

Doch auch in diesem Anwendungsfall ist die Public Cloud für die Analyse und Verarbeitung grosser Datenmengen ideal. Daher wandert der Datenstrom kontinuierlich in die Public Cloud, wo er kostengünstig abgelegt und bedarfsgerecht analysiert werden kann. Die Arbeitsteilung zwischen Public Cloud und Edge Computing kombiniert geringe Latenzzeiten am «Rand» und hohe Skalierbarkeit sowie kostengünstige Ressourcen und umfassende Funktionalitäten im Zentrum.

Ideal für Künstliche Intelligenz und Machine Learning

In dieser Kombination können Prozesse im Bereich der künstlichen Intelligenz und des Machine Learnings erheblich beschleunigt werden, indem Datenströme quasi «vorgefiltert» und relevante Informationen priorisiert werden, bevor sie der Analyse zugeführt werden. Edge-Knoten sammeln die Daten, sortieren Unwichtiges oder Redundantes aus und senden das Relevante in die Public Cloud. Dort werden Daten aus sämtlichen Standorten zentral analysiert. Auf Basis der gewonnen Erkenntnisse können Unternehmen somit aus der Public Cloud heraus die Parameter für die Steuerung ihrer Produktionslinien überall auf der Welt in Echtzeit anpassen. So lassen sich Edge-Knoten beispielsweise auch darauf programmieren, Videodaten von Überwachungskameras zu analysieren, dabei jedoch redundante Bilder zu ignorieren und nur solche in die Cloud zu übertragen, die Veränderungen zeigen. Die nahezu unbegrenzt skalierbaren Cloud-Ressourcen übernehmen dann in einem zweiten Schritt den eigentlichen Machine-Learning-Prozess – der jedoch deutlich effizienter abläuft, weil bereits vorstrukturierte und gefilterte Daten vorliegen.

Auf ähnliche Weise können Unternehmen ihre Edge-Knoten zentralisiert aus der Public Cloud heraus mit Software-Updates versorgen oder ihnen neue Aufgaben übertragen. Ein Edge-Knoten, der gestern noch Videos analysiert hat, kann morgen die Steuerung von Logistikprozessen übernehmen und nach analogem Muster Auffälligkeiten in die Cloud weiterleiten.

Die intelligente Kombination aus Edge und Cloud bringt Effizienz: Schlanke Hardware-Ressourcen am Ort des Geschehens helfen Unternehmen dabei, latenzkritische Prozesse zuverlässig und schnell durchzuführen. Durch die Kombination mit der Public Cloud ergeben sich für Unternehmen noch viele weitere Möglichkeiten, Mehrwerte aus den Daten zu ziehen, die im Wertschöpfungsprozess generiert werden.

Multi-Cloud trumpft

Doch die Parallelverarbeitungsanforderungen der KI und die Vielzahl an Anwendungsmöglichkeiten führen auf der Infrastrukturebene dazu, dass sich für verschiedene Anwendungen und Workloads jeweils verschiedene Public Clouds am besten eignen. Und schon aus Gründen der Resilienz ist es ratsam, Cloud-Ressourcen von mehr als einem Anbieter zu beziehen. Doch dies erhöht die Komplexität für das Management und frisst im Worst Case die dank des Cloudmodells erzielten Effizienzsteigerungen wieder auf. Damit die so entstehenden Multi-Cloud-Umgebungen erfolgreich und effizient betrieben werden können, ist ein hohes Mass an Integrations-Know-how und Erfahrung nötig. Ein übergreifendes, ganzheitliches Managed Cloud Operating System (MCOS), also ein voll gemanagtes Betriebssystem, das technologieunabhängig virtuelle Server auf mehreren Infrastrukturen gleichzeitig überwacht und verwaltet, kann das Managen von Cloud-Umgebungen automatisieren und den Unternehmen die Flexibilität und Planungssicherheit geben, die sie in ihrer Digitalen Transformation brauchen.

Autor: Camille Brichet, Experte und Berater für Public-Cloud-Lösungen bei T-Systems Schweiz

13