Bild: Digitalstock/B. Jusifi

Sechs Backup-Tipps für die Datenflut

Was bedeutet es für die Datensicherung, wenn immer mehr Daten entstehen und alles aufgehoben werden soll?

Unternehmen mussten schon immer Daten aus verschiedensten Gründen für sehr lange Zeit aufbewahren. In der Geschäftswelt ist das Datenwachstum deshalb seit Jahren ein Dauerthema. Was sich aber gerade ändert: Heute wollen Unternehmen alle Daten behalten. Absichtliches Löschen wird zum Ausnahmefall. Niemand will sich Chancen verbauen, die beispielsweise Big-Data-Analysen alter Datenbeständen bieten. So wie im Ölrausch sich jeder erst einmal seinen Claim absteckte, in der Hoffnung, dass sich der Bodenschatz dort schon finden lassen werde, wird im Datenrausch aus vager Hoffnung vorsorglich fast alles aufgehoben. Die Konsequenz: Die gesamte heute verfügbare Speicherkapazität wird laut IDC schon im Jahr 2020 nur noch für gut 15 Prozent aller Daten ausreichen. Was bedeutet das für die Datensicherheit? Lässt sich sie sich mit bisherigen Backup-Strategien noch gewährleisten?

Das Internet der Dinge, Industrie 4.0, Smartphones, Wearables und das Smart Home produzieren Unmengen an Daten. Um die Sache noch komplizierter zu machen, liegen diese Informationen grösstenteils unstrukturiert vor. Traditionelle Backupsysteme arbeiten mit Vollsicherungen auf Offline-Speichermedien. Die zukünftigen Anforderungen hinsichtlich Speicherbedarf und Wiederherstellungszeit wird dieser Ansatz jedoch nicht mehr erfüllen. Das massive Datenwachstum würde die verfügbaren Backupfenster sprengen und die Kosten würden durch die nötigen Speicherkapazitäten völlig aus dem Ruder laufen.

In der Realität stossen schon heute die Sicherungssysteme vielerorts an ihre Grenzen. Das Backup dauert zu lange, das Volumen wird zu gross, die Hardware zu teuer, das Management zu aufwändig. Und noch schneller verlängert sich die Wiederherstellungszeit. Denn die Bandbreite für den Datentransfer hält schlichtweg nicht mit dem Datenwachstum Schritt. Wie lange darf es höchstens dauern, bis die Systeme wieder produktiv laufen? Und wie viel Datenverlust toleriert ein Unternehmen? Um die in früheren Zeiten angestrebten Ziele, Recovery Time Objective (RTO) und Recovery Point Objective (RPO), zu erreichen, muss sich angesichts der Datenflut die Geschwindigkeit von Backup-Prozessen vervielfachen. Diese Beschleunigung ist durchaus zu erreichen. Mit den folgenden sechs Tipps halten Administratoren ihr Backup fit für das Zeitalter des Datenrauschs.

1. Tipp: Automatisierung statt Handarbeit

Administratoren haben eine immer komplexere IT-Architektur zu verwalten. Die Erstellung von Sicherungen darf daher nach der erstmaligen Konfiguration kaum noch Zeit kosten. Sie muss vollständig automatisiert ablaufen und so einfach wie möglich gestaltet sein. Im Falle von Datenverlust soll das System dem Admin ermöglichen, mit wenigen Klicks nicht nur einzelne Server oder Clients sondern sogar einzelne Ordner oder Dateien wiederherzustellen. Dies ist heute möglich dank disk-basierten Backups und dezidierter Backup-Appliances. Mit ihnen können auch die obligatorischen Wiederherstellungstests mit überschaubarem Aufwand durchgeführt werden.

2. Tipp: Globale Inline Deduplizierung statt Speicher- und Bandbreitenverschwendung

Die Erstellung von Backups ist bei Backup Appliances erst dann richtig performant, wenn Daten auch intelligent übertragen und gesichert werden. Unverzichtbar, um das Datenwachstum unter Kontrolle zu bekommen, ist Deduplizierung. Das heisst, redundante Daten werden im Backup nur ein einziges Mal physisch gespeichert. Der Königsweg ist die «globale Deduplizierung». Das heisst, eine Deduplizierung über die Backup-Daten aller Standorte des gesamten Unternehmens hinweg. Da zum Beispiel viele Clients das gleiche Betriebssystem nutzen, kann alleine die Deduplizierung dieser Datenblöcke die Backup-Kapazität stark entlasten. Auch in vielen anderen Bereichen lässt sich das Volumen auf einen Bruchteil reduzieren. Eher sinnfrei ist allerdings eine Architektur, die zunächst die Daten vollständig überträgt, speichert und erst anschliessend dedupliziert (Post Process Deduplication). Dies wäre wie eine Fussballmannschaft, die erst nach dem Abpfiff die Tore schiesst. Systeme mit Inline Deduplication stellen bereits vorab fest, welche Daten ins Backup übertragen werden müssen und sparen so Bandbreite und Speicherkapazität.

3. Tipp: Inkrementelles Backup statt Vollbackups

Früher war es üblich, zumindest gelegentlich mit Vollbackups sicherzustellen, dass man eine konsistente Datenbasis hat. Doch ein Vollbackup kann selbst in kleineren Unternehmen Netzwerke tagelang beeinträchtigen. Inkrementelle Sicherungen mit Deduplizierung an der Backup-Quelle stellen sicher, dass nur die tatsächlich benötigten Daten überhaupt übertragen werden. Heute reicht es, einmal zu Beginn ein Vollbackup vorzunehmen. Danach werden immer nur die Änderungen des Datenbestandes übertragen. Moderne Backup-Technologie kann die Konsistenz der Daten durch Prüfsummen sicherstellen und die Backup-Daten ohne manuelles Eingreifen des Administrators zu konsistenten Vollbackups konsolidieren. Nur mit einer inkrementellen Backup-Strategie ist es möglich, die Dauer des Backups kurz zu halten.

4. Tipp: Archivierung statt überladener Produktivsysteme

Unternehmen können Unternehmen die Grösse von Mail- oder Fileservern durch Archivierung massiv reduzieren. Im Gegensatz zu den Produktivdaten verändern sich die Archive wenig. Selbst Archive, die sehr grosse Datenbestände aufweisen, bedeuten daher nach dem ersten Backup kaum noch eine Belastung des Backup-Systems. Damit bleiben sowohl Speicherbedarf als auch Backupdauer im Rahmen.

5. Tipp: Disaster Recovery günstig in der Cloud statt teuer im eigenen Haus

Die Cloud eignet sich hervorragend, um die Anforderung eines Offsite-Backups für Katastrophenfälle (Disaster Recovery) kostengünstig abzubilden. Egal ob es sich um eine Public Cloud handelt oder eine aus fertigen Komponenten aufgebaute Private Cloud beim Dienstleister – sie spart erheblich Zeit und Geld für die Implementierung und den Betrieb eines eigenen Disaster-Recovery-Systems. Diese Spareffekte sollte man nutzen, wenn man bedenkt, dass eine komplette Wiederherstellung aller Systeme, etwa bei Naturkatastrophen oder Unglücksfällen, in der Praxis sehr selten passiert. Viel häufiger ist das versehentliche Löschen einzelner Ordner, das Überschreiben von Dateien oder der Verlust eines Endgerätes. Um abseits des Katastrophenfalls bei punktuellen Datenverlusten Daten schnell wiederherstellen zu können, bleibt es unverzichtbar, ein lokales Backup vorzuhalten.

5. Tipp: Cloud-to-Cloud Backup statt Abhängigkeit vom Cloud-Dienstleister

Je mehr Unternehmen ihre Infrastruktur in die Cloud auslagern, desto wichtiger wird ein Backup dieser Ressourcen. Dies sollte immer bei einem zweiten Cloud-Anbieter stattfinden, damit Unternehmen nicht einem einzigen Anbieter ausgeliefert sind. Wer das sogenannte Cloud-to-Cloud-Backup nutzt, hat höchste Gewissheit, jederzeit auf alle Daten Zugriff zu behalten, auch wenn einer der Dienstleister seine Verträge nicht einhält oder mit technischen Schwierigkeiten kämpft.

6. Tipp: Schnelle Recovery in der Cloud statt Geschäftsunterbrechung

Gerade wenn Server oder Clients durch Unfälle, Diebstähle, Verlust oder Unglücksfälle nicht mehr verfügbar sind, bietet Virtualisierung ganz neue Recovery-Optionen. So ist es möglich, zum Beispiel das Backup eines Servers, der physisch nicht mehr zur Verfügung steht, direkt aus dem Backup als virtuelle Maschine in den produktiven Betrieb zu nehmen. Auch die Cloud bietet ganz neue Recovery-Optionen: Unternehmen können ihre in der Cloud gesicherten Daten direkt in der Cloud in einem Sync&Share-Service veröffentlichen. Dies ermöglicht Mitarbeitern im Self Service sehr schnellen Zugriff über den Browser auf ihre Daten. Und es bietet auch die Möglichkeit der Wiederherstellung von Daten auf dem Client für Mitarbeiter, die nicht in einer Niederlassung sind, sondern zum Beispiel auf Reisen oder im Home Office.

«Data Mining» ist kein zufällig entstandenes Wort. Daten sind heute wertvolle Rohstoffe und sie müssen besser gesichert werden als je zuvor. Traditionelle Backup-Architekturen sind mit den heutigen Datenmengen überfordert. Um den Backup-Durchbruch zu schaffen, müssen grundlegend neue Backup-Strategien und -Strukturen entwickelt werden. Globale Deduplizierung, inkrementelle Sicherung und die Nutzung von diskbasierten Backup-Appliances sind die Grundlage zeitgemässer Backup-Strategien. Die Cloud und Virtualisierung erweitern diese Möglichkeiten um spannende neue Optionen.

Download (PDF, 117KB)

Autor: Stefan Schachinger ist Consulting System Engineer – Data Protection bei Barracuda Networks

Share this...
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter