© carlos castilla/shutterstock.com

Kostenfalle Cloud Computing?

Gemäss einer aktuellen Cloud-Studie wird beinahe ein Drittel der Cloud-Ausgaben in den Unternehmen verschwendet. Ehe diese sich nun enttäuscht aus der Cloud wieder zurückziehen, lohnt es sich zu checken, ob sie nicht in die eine oder andere Kostenfalle getreten sind. Denn für jeden Kostentreiber gibt es auch Stellschrauben, an denen gedreht werden kann.

Cloud Computing war mit dem Versprechen angetreten, IT-Ressourcen flexibler verfügbar zu machen und damit kostengünstiger zu sein. Im Prinzip stimmt das: Das «as-a-Service»-Modell befreit die Unternehmen von langfristigen CapEx in Hard- und Software und von Kapitalbindung beim Betrieb eigener Rechenzentren.

Doch jeder neue Cloud-Service lässt die Umgebung komplexer werden. Kommt hinzu, dass nicht jedes Altsystem, das durch einen neuen Service ersetzt wird, einfach abgeschaltet werden kann. Beides erhöht den Betriebsaufwand und damit die Kosten. Gleichzeitig muss mit dem vorhandenen IT-Budget die digitale Transformation bewältigt werden. Das bedeutet, dass immer neue Applikationen und digitale Workflows über zusätzliche Kanäle und Plattformen entwickelt und ausgespielt werden müssen, will man wettbewerbsfähig bleiben. Daher müssen die Kostentreiber in der IT identifiziert und eliminiert werden.

Die grössten Kostentreiber und Massnahmen zur Optimierung sind:

Kompliziertes Multi-Cloud-Management

Für das Zusammenspiel verschiedener Cloud-Plattformen – seien es hybride Architekturen wie auch die Clouds verschiedener Anbieter – werden viele neue Schnittstellen benötigt. Auch der Datenverkehr steigt und kostet demzufolge. Regelmässige Updates und deren Tests bringen ebenfalls Mehraufwände mit sich.

Die Lösung: Software-defined Infrastructure reduziert Komplexität. Tools für Multicloud-Orchestration vereinfachen das Management über die verschiedenen Plattformen hinweg und vereinheitlichen die Administration unabhängig von den genutzten einzelnen Cloudlösungen.

Teurer Betrieb von Altsystemen

Oftmals lässt sich Legacy aufgrund von Regulatorien oder Compliance-Vorgaben nicht einfach abschalten. Sie zu modernisieren lohnt häufig ebenfalls nicht. Doch ihr Betrieb wird mit der Zeit zunehmend aufwändiger und kann sogar problematisch werden, wenn Releases ab- und die Wartung eingestellt werden.

Die Lösung: Mit hybriden Infrastrukturen kann die Brücke zwischen der klassischen statischen IT und der agilen Cloudwelt geschlagen werden. Hierfür migrieren die Unternehmen ihre Altsysteme inklusive Daten in eine Private Cloud. Die Skalierung wird über eine Anbindung an eine oder mehrere Public-Clouds gewährleistet.

Zeitintensive manuelle Prozesse

Am teuersten ist die IT dort, wo der Mensch Hand anlegt. Kein Unternehmen kann es sich heute noch leisten, Updates manuell einzuspielen. Die wertvolle Zeit von IT-Spezialisten sollte nur dort aufgewendet werden, wo sie Mehrwert schafft und menschliche Kreativität Algorithmen und Routine-Workflows überlegen ist.

Die Lösung: Standardisierung und Automatisierung. Je standardisierter der Prozess, desto einfacher lässt er sich automatisieren und damit fehlerfreier, schneller und kostengünstiger abwickeln. Mit Konzepten wie Infrastructure as a Code lassen sich beispielsweise Skript-Änderungen transparent nachvollziehen. Die Mitarbeitenden werden entlastet und können sich strategischen IT-Projekten widmen.

Falsches Netzwerk-Setup

Der Nutzen von Cloud Computing kann sich nicht entfalten, wenn das Netzwerkdesign nicht durchdacht ist. Zu geringe Übertragungsraten bremsen den Datenfluss aus, während eine Kombination aus Datenbankserver in der Cloud mit einem Applikationsserver im On-Premise-Rechenzentrum ihn unnötig aufbläst. Produktivitätsverluste und höhere Kosten sind die Folge.

Die Lösung: Das Netzwerkdesign muss genau auf die spezifischen Anforderungen im Unternehmen zugeschnitten werden. Je nach erforderlichen Latenzzeiten kann es sich lohnen, Public Clouds über dedizierte Netzwerklösungen anzubinden und Ende-zu-Ende-Verbindungen zwischen dem Unternehmens-WAN und dem Cloud-Rechenzentrum einzurichten.

Überdimensionierte virtuelle Maschinen

Falsch dimensionierte virtuelle Maschinen ziehen häufig hohe Kosten nach sich. Sind zu viele Ressourcen vorhanden, verteuert dies den Anwendungsbetrieb; zu wenige haben Auswirkungen auf die Performance.

Die Lösung: Mit einem Tagging der Cloud-Services können die Workloads gemonitort und damit das Speichervolumen und die Nutzungshäufigkeit im Blick behalten werden. Die Prozessoren sollten so zugeteilt werden, dass virtuelle Maschinen mit teuren GPUs nicht bei Workloads zum Einsatz kommen, die ebenso von günstigen CPUs ausgeführt werden können.

Praktische Tipps, um nicht in die Kostenfalle zu tappen, sind sicher hilfreich. Doch um wirklich Zeit und Geld zu sparen, muss die zugrunde liegende IT-Strategie stimmen, mit der der ideale Mix aus Cloud- und On-Premise-Infrastrukturen hergestellt wird, die jeweils im optimalen Betriebsmodell gemanaged werden.

Das Whitepaper kann hier heruntergeladen werden.

Autor:

Cami Brichet, Experte und Berater für Public Cloud Lösungen bei T-Systems Schweiz