Verfügbarkeit: eine Frage der Strategie

Digitalisierung ist seit Jahren ein Trendthema und ein Ende ist nicht abzusehen. Schon jetzt hat sie die Anforderungen an die Unternehmens-IT radikal verändert.

Nutzer erwarten mittlerweile, dass sie auf Daten und Services rund um die Uhr zugreifen können. Sind diese nicht verfügbar, kann das gravierende Folgen haben: Kunden wandern ab zu einem konkurrierenden Dienst, Mitarbeiter können ihre Arbeit nicht erledigen, Partnerunternehmen erleiden Einbussen und im schlimmsten Fall steht vielleicht sogar die Produktion still. Denn Unternehmensprozesse sind mit IT-Systemen oft eng verzahnt – Stichwort Industrie 4.0. In diesem Fall kann ein ausgefallener Server gleich ganze Systeme lahmlegen.

Dass keine Infrastruktur zu hundert Prozent sicher ist, zeigte der Ausfall eines belgischen Google-Rechenzentrums im August. Auch wenn Google äusserst ausgereifte Sicherungssysteme eingesetzt hatte, hielten diese der Wucht mehrerer Blitzeinschläge nicht stand. Betroffene Nutzer konnten bis zu vier Tage nicht auf ihre Daten zugreifen, ein kleiner Teil ging ganz verloren. Gegen gewisse Risiken kann man sich nicht absichern, das wissen Versicherungsfachleute schon lange. Dennoch kann man sich mit einer durchdachten Verfügbarkeitsstrategie auch auf unvorhergesehene Situationen vorbereiten.

Datenverfügbarkeit: jede Sekunde zählt

Backups sind das Mittel der Wahl, um Datenverlusten vorzubeugen und im Notfall mit einem Ersatz-Server den Betrieb wiederaufzunehmen. Dabei ist Schnelligkeit entscheidend: Jede Sekunde Downtime kostet Geld und Ansehen. Im Idealfall beträgt nach einem Ausfall das Recovery Time and Point Objective (RTPO), also die Wiederherstellungsdauer und der Zeitabstand für die Datensicherung, nicht mehr als 15 Minuten.

Backup ist dabei nicht gleich Backup. Je nachdem, welche Technologie zum Einsatz kommt und wie es aufbewahrt wird, eignet es sich mehr oder weniger gut für einen bestimmten Zweck. Im Rahmen einer umfassenden Verfügbarkeitsstrategie sollten Entscheider mehrere Faktoren berücksichtigen. Zum einen kommt es auf die Erreichbarkeit der Sicherungskopie an. Entscheidend ist auch das
Sicherungsintervall. Und schliesslich muss die Qualität des Backups garantiert sein.

Beim Thema Erreichbarkeit und einfaches Handling setzen die meisten Nutzer nach wie vor auf die Speicherung vor Ort, entweder auf einer externen Festplatte oder auf Langzeit-Speichermedien wie Tape. Die Vorteile: On-site gesicherte Daten sind im Bedarfsfall schnell zur Hand. Besonders bei geschäftskritischen und sensiblen Daten spielen Sicherheit und Aufbewahrungspflichten zusätzlich eine Rolle. Problematisch wird es allerdings, wenn ein physischer Schaden auftritt, etwa durch Blitzschläge wie im Fall Google. Wird die ganze Infrastruktur lahmgelegt, ist das Backup meistens genau so betroffen wie das Produktivsystem. Wie man sich dagegen schützt, erklärt die 3-2-1 Regel. Sie besagt, dass zu einem umfassenden Verfügbarkeitskonzept mindestens drei Datenkopien gehören, die auf mindestens zwei unterschiedlichen Medien gespeichert werden, von denen eine extern aufbewahrt wird. Damit beheben Nutzer das Problem des kompletten Datenverlustes, falls ein Standort ganz ausfällt. Die Diversifizierung bei den Speichermedien schafft eine Rückfalloption, falls ein Backup beschädigt oder die Technologie nicht mehr kompatibel ist.

Erfolgsfaktoren Erreichbarkeit, Aktualität, Qualität

Bei der externen Speicherung stellen Cloud-Services wie die von Google mittlerweile eine ernsthafte Alternative zu einem physischen Standort dar, bieten sie doch erhebliche Vorteile bei Skalierbarkeit und Kosten. Auch wenn diejenigen, die dem Cloud Computing skeptisch gegenüber stehen, sich durch den Vorfall in Belgien bestätigt fühlen, sollten Cloud-Kunden nicht übereilt ihre Daten ins eigene Rechenzentrum zurückholen. In Sachen Sicherheit und Redundanz ist Google vorbildlich, kaum ein Unternehmen kann es sich leisten, dieselben hohen Standards am eigenen Standort zu implementieren.

Anwender, die sich für eine Cloud-Backup-Lösung entscheiden, sollten allerdings ihre Anforderungen genau kennen und auch hybride Modelle in Betracht ziehen. Private, Public und Managed Cloud lassen sich flexibel kombinieren, um der Bedürfnislage jedes Kunden Rechnung zu tragen. So können kritische Daten und Arbeitslasten im Unternehmen verbleiben, andere hingegen kostensparend ausgelagert werden. Neben umfassender Verschlüsselung, um die Integrität der Daten zu gewährleisten, ist darauf zu achten, dass der Datentransfer in die Cloud das Unternehmensnetzwerk nicht mehr als nötig strapaziert. Abhilfe schaffen zum Beispiel Lösungen für die WAN-Beschleunigung.

Kommt es zu einem Ausfall, reicht es nicht, dass das Backup schnell zur Verfügung steht. Es muss auch aktuell sein. Komplettsicherungen erfordern viel Zeit und Speicherplatz, sie lassen sich allenfalls täglich erstellen. Was nach der letzten Sicherung hinzugekommen ist oder verändert wurde, ist im Fall aller Fälle verloren. Nutzer mit einer virtualisierten IT-Umgebung können allerdings mit Hilfe inkrementeller Backups kontinuierlich sichern. Dabei werden stets nur die aktuellen Veränderungen ins letzte vollständige Backup eingeschrieben. Mit entsprechenden Backup-Tools lassen sich auf diese Weise RTPOs erheblich senken. Um eine solche Aktualität auch für externe Backups zu gewährleisten, bieten sich neben der Spiegelung in einem dedizierten Ausweich-Rechenzentrum auch Cloud-Modelle an, die eine Echtzeit-Aktualisierung zulassen. Voraussetzung für beide Lösungen sind ausreichend Bandbreite und moderne Technologien für die WAN-Beschleunigung und -Optimierung.

Hochverfügbarkeit auch für den Mittelstand

Ein weiterer wichtiger Punkt bei der Datensicherung, der jedoch zu selten Beachtung findet, ist die Qualität der Backups. Dass hier eine entscheidende Schwachstelle in der Umsetzung lauert, zeigen Daten aus dem Veeam Data Center Availability Report 2014, eine Umfrage unter IT-Entscheidungsträgern auf der ganzen Welt. Diese ergab: Jedes sechste Backup lässt sich gar nicht wiederherstellen. Bei durchschnittlich 13 Ausfällen, die Unternehmen pro Jahr verzeichnen, gehen somit in zwei Fällen Daten endgültig verloren. Um dies zu vermeiden, gehört zu einem Verfügbarkeitskonzept auch die automatische Prüfung der Wiederherstellbarkeit. Dass dies bisher selten gemacht wird, ist vor allem eine Frage des Aufwands. Ältere Systeme unterstützen eine solche Prüfung nicht ohne weiteres, die manuelle Prüfung kostet jedoch viel Zeit und Geld. Mittlerweile sind allerdings Lösungen auf dem Markt, die entsprechende Funktionen bieten. Wer seine Backup-Infrastruktur modernisieren will, sollte bei der Wahl der Lösung diesen Punkt unbedingt berücksichtigen.

Lange war Verfügbarkeit eine kostspielige Angelegenheit, die sich nur Grossunternehmen für ihre kritischen Daten und Anwendungen leisteten. Doch dank neuer Technologien lassen sich heute alle Daten und Systeme schützen, und zwar zu Kosten, die auch für kleine und mittlere Unternehmen tragbar sind. Moderne Backup-Technologien wie inkrementelles Backup, automatische Qualitätskontrolle oder WAN-Optimierung unterstützen die Einhaltung kurzer RTPOs, ohne dass Nutzer hohe Investitionen und laufenden Aufwand fürchten müssen. Voraussetzung ist eine virtualisierte Umgebung. Unternehmen, die sich den Herausforderungen des Always-On Business stellen wollen, haben also gute Gründe, ihre IT-Infrastruktur zu modernisieren.

Den Veeam Data Center Availability Report 2014 finden Sie hier.

Download (PDF, 940KB)

Autor: Gerald Hofmann ist Vice President Central EMEA, Veeam Software.
%d Bloggern gefällt das: