Bild: Phonlamai-Photo/shutterstock.com

Digitale Zwillinge sorgen für neuen Schwung im Betriebsablauf

Es ist gang und gäbe, dass Industriemaschinen mit Sensoren verbunden und per Telemetrie überwacht und beobachtet werden. So zum Beispiel lassen sich Informationen zur Leistung einer Windkraftanlage erlangen: Temperatur, harmonische Schwingungen, erzeugte Energie, Rotationsrichtung, Winkel der Turbinenschaufel usw. Trotz der guten Instrumentierung aber mussten Änderungen zur Optimierung des Systems bisher in Echtzeit und an der realen Maschine vorgenommen werden. Wenn man über Ersatzmaschinen verfügt, ist das unproblematisch. Bei einer einzigartigen oder zumindest eindeutig zugewiesenen Maschine lauern hingegen Gefahren.

Das Monitoring als Wissenschaft

Im Prinzip ist ein digitaler Zwilling ein virtuelles Gerät, das den genauen Zustand, die Informationen und die Organisation des physischen Geräts spiegelt, mit dem es verbunden ist. Es ist ein lebendiges, telemetriegesteuertes Modell der materiellen Einheit, das gleichzeitig den Betrieb simuliert und sich mit dem physischen Quellsystem, das es darstellt, weiterentwickelt. Wenn das Modell ähnlich genug ist, lassen sich Änderungen zunächst an ihm testen und simulierte Änderungen am physischen System beobachten, um erst dann zu entscheiden, ob sie angewandt werden sollen.

Bei der Windkraftanlage könnte es beispielsweise darum gehen, herauszufinden, wie sich ein veränderter Winkel der Turbinenschaufel in einem bestimmten Temperatur- und Feuchtigkeitsbereich auf die Stromerzeugung auswirkt. Das Betriebsteam nimmt die Änderungen zunächst an der virtuellen Konfiguration des digitalen Zwillings vor. Anschließend beobachtet es den Zwilling mithilfe der bekannten, zur Überwachung des Primärsystems genutzten Metriken, misst die potenzielle Vibration, vergleicht den Ertrag, legt Erwartungen für die Leistung fest und kann schließlich den neuen Winkel sicher für den Generator übernehmen.

Ein gutes Monitoring ist unerlässlich, um sicherzustellen, dass der digitale Zwilling sich wie erwartet verhält und auch wirklich eine genaue Analogie zu seinem physischen Gegenstück darstellt. Je genauer man untersucht, wie identisch das digitale Modell mit dem Original ist, desto geringer ist das Risiko bei physischen Änderungen. Wie immer beim Monitoring ist eine hohe Genauigkeit wichtig, um sicherzustellen, dass Änderungen Vorteile bringen und erfolgreich umgesetzt werden.

Der Ursprung digitaler Zwillinge

Die Schwerindustrie war aufgrund der Kosten und Größe der Maschinen geraume Zeit federführend beim Erstellen und Nutzen digitaler Zwillinge. Betriebsteams aktivieren die Telemetrie für mehrere Systeme, um die Daten in Echtzeit in die von Produktteams erstellten Simulationen einzuspeisen, während die IT dafür verantwortlich ist, dass die Infrastruktur die nötigen Metriken und Übermittlungswege für das digitale Modell bereitstellt.

Technikexperten entwickeln außerdem digitale Zwillinge mit Unternehmenstechnologie und konfigurieren identische Systeme zum Experimentieren. Spezialistenteams entscheiden sich für die anspruchsvollste Version: modellgesteuerte digitale Zwillinge. Diese von Entwicklern geleiteten Umgebungen ermöglichen die programmgesteuerte Instrumentierung mehrerer digitaler Zwillingsmodelle. Allerdings wird dieser Automatisierungsgrad hauptsächlich bei Großunternehmen wie Google und Amazon genutzt, die mehrere, durch maschinelles Lernen (Machine Learning) gesteuerte Modelle testen.

Digitale Zwillinge in Aktion

Immer mehr Unternehmen setzen auf digitale Zwillinge. Ein gutes Beispiel ist die Nutzung digitaler Benutzerzwillinge durch Facebook, auch wenn sie wegen teils orwellianisch anmutender Datenschutzpraktiken kritisiert wurde. Mithilfe riesiger Datenmengen und ausgeklügelter Duplizierungsmethoden kann das Unternehmen künstliche Versionen seiner Benutzer erstellen und Verhalten simulieren, das noch nicht real gezeigt wurde. Diese Tests ermöglichen das gezielte Marketing, das zum Hauptgeschäft von Facebook wurde.

Doch auch wer Systeme für weniger große Unternehmen pflegt, kann durch die Implementierung von ein oder zwei digitalen Zwillingen mehr Effizienz gewinnen und einen Mehrwert für das Unternehmen schaffen. Das gilt insbesondere angesichts der zunehmend softwaregesteuerten Infrastrukturen. 

Wir werden neue Fragen stellen und unerwartete Antworten erhalten. Gleichzeitig bewirkt die Automatisierung, dass Fehler durch Änderungen immer größere potenzielle Auswirkungen haben und immer schneller auftreten. Besonders beim Beheben erstmalig auftretender Probleme können digitale Zwillinge sehr hilfreich sein.

Wir glauben, dass digitale Zwillinge von kritischen Systemen selbst für grundlegende Aufgaben Potential haben, beispielsweise Backups oder die Vereinheitlichung oder gleichzeitige Präsentation kritischer Servicebereitstellungsmetriken von Test- und Produktionssystemen.

Die verbesserten Zugriffsmöglichkeiten auf Deep-Learning-Tools ermöglichen es auch kleineren Unternehmen, die Vorteile digitaler Zwillinge zu nutzen. Tatsächlich deuten kürzliche Ankündigungen von Amazon und Microsoft auf die schnelle Bereitstellung von Bot-Diensten und Tools hin, die erste Schritte zu Twins-as-a-Service sein können – oder zumindest Toolkits, die es ermöglichen, mit dem entsprechenden Know-how selbst digitale Zwillinge zu entwickeln.

Mehrwert für Unternehmen

Leider verfügen viele Unternehmen schlicht nicht über das nötige interne Fachwissen oder sehen digitale Zwillinge als unnötig an. Andere wiederum haben berechtigte Bedenken wegen umfangreicherer benutzerdefinierter Entwicklungen und neuer Technologien.

Der erste Schritt in Richtung digitaler Zwillinge bringt den meisten Unternehmen jedoch tatsächlich einen sofortigen Nutzen: Es geht darum, Monitoring und Telemetrie von Anfang an in Anwendungen zu integrieren und nicht erst nachträglich im Betrieb hinzuzufügen.

Wenn mehr Echtzeitdaten verfügbar sind, kann die IT-Abteilung der Führungsetage demonstrieren, wie wichtig Investitionen in Testumgebungen und Tools sind, und herausfinden, welche Systeme von sicheren Experimentiermöglichkeiten am stärksten profitieren würden.

Und genau darum geht es. Experimente sind eine gute Sache und in der IT sind sie besonders wichtig. Nur allzu oft sind wir uns dessen bewusst, aber Risiken und Befürchtungen halten uns zurück. Wie wirkt es sich auf den Datenverkehr aus, wenn ich die Caching-Strategie für meine Anwendung ändere? Wird der Datenverkehr während eines Failovers auf unerwartete Weise weitergeleitet? Was passiert mit meinen Digital Experience Monitoring-Messdaten, wenn ich Inhalte in ein CDN verschiebe? Wird eine Anwendung, die ich in einen neuen Speicherpool verschiebe, im LUN zum Störfaktor („Noisy Neighbor“) und beeinträchtigt die Leistung von anderen Anwendungen?

Diese Beispiele sind weniger greifbar als die optimale Ausrichtung von Turbinenschaufeln im Windpark. Für unsere Benutzer und Führungskräfte sind sie jedoch noch wichtiger. Auch wenn manche dem Konzept der digitalen Zwillinge noch skeptisch gegenüberstehen, wird es immer häufiger genutzt, um das Management und Monitoring von realen Systemen zu verbessern.

Vielleicht werden digitale Zwillinge eines Tages zum genauso selbstverständlich genutzten Werkzeug wie andere kritische IT-Technologien im Unternehmen. Digitale Zwillinge helfen dabei, das größte Wunder der IT zu ermöglichen: Änderungen zu beschleunigen, indem Risiken verhindert werden. Für Entwickler, IT-Abteilungen und Betrieb bedeutet das echte Freiheit und letztendlich die Chance, genau das zu tun, was die Unternehmensleitung sich eigentlich wünscht: Innovationen zu schaffen.

Autor: Patrick Hubbard, Head Geek, SolarWinds