IT-Trends im Jahr 2019

Im Jahr 2019 wird sich ein grosser Trend fortsetzen und weiter verstärken, der bereits vor einigen Jahren begonnen hat. In immer mehr Bereichen der Unternehmens-IT verliert Hardware an Relevanz, weil Unternehmen Software-defined Architekturen und Konzepte ausrollen und Hardware von der Stange einsetzen. Zudem lassen sich immer mehr Organisationen von einer Cloud-First-Mentalität leiten, indem sie alle neuen Prozesse und Applikationen von vornherein als virtuelle Workloads aufsetzen. Daraus ergeben sich allerdings Fragen und Konsequenzen an anderer Stelle, auf die Unternehmen im kommenden Jahr eine Antwort finden müssen.

1. Firmen werden noch mehr Daten sammeln, auswerten und tauschen wollen 

Ob Big Data, IoT oder Edge Computing – es ist der kleinste gemeinsame Nenner bei all den grossen Wirtschaftstrends: Unternehmen jeder Grösse überziehen ihre Fertigungs-, Entwicklungs-, Marketing- und Verkaufsprozesse und sogar ihre Produkte Schritt für Schritt mit einer digitalen Schicht, um in deren Lebenszyklus besser zu verstehen, was der Kunde will. Schon die Sorge, dass die Konkurrenz auf dem Gebiet aktiv sein könnte und dieses Wissen sucht, treibt selbst kleine Firmen dazu an, eigene Digitalisierungsprojekte zu initiieren. Niemand will ins Hintertreffen geraten.

Jeder Sensor, jede neue Workload und jede Big-Data-Analyse wird neue und vor allem noch mehr Daten erzeugen, die abgelegt, ausgewertet, verknüpft, gesichert, juristischen Vorgaben entsprechend gepflegt und archiviert werden müssen. Die Menge der Daten bei unseren Kunden wächst bereits heute im Schnitt um 49 Prozent pro Jahr, wie unsere eigenen Studien zeigen. Dieser Wert wird dank der Digitalisierung sicher steigen.

Die EU Kommission schätzt, dass in fünf Jahren 46 Prozent aller Unternehmen in Europa ihre Daten mit anderen teilen werden und dies ihre wirtschaftlich wichtigste Aktivität sein wird. Die IT-Industrie will es den Unternehmen so leicht wie möglich machen, die Daten klug zu tauschen. Microsoft, Adobe und SAP haben jüngst eine „Open Data Initiative” ins Leben gerufen, um Kunden zu helfen, ihre isolierten Datensilos über die Cloud aufzubrechen.

2. Software-defined wird als Architektur dominanter

Firmen suchen schnelle und einfache Lösungen, um Speicherplatz für ihre Daten zu schaffen. Die meisten werden in der Cloud fündig, wo per Mausklick schnell mehrere Terabyte gebucht sind. In einer Umfrage unter 100 IT-Leitern in der Schweiz vom November dieses Jahres lagen nur noch 54 Prozent der Daten aller Befragen lokal vor – die grosse Mehrheit ist auf unterschiedlichen Clouds und mobilen Geräten verteilt.

Ein Grund: Cloud-Infrastruktur-Provider können Kapazitäten dank eines extrem hohen Virtualisierungsgrads und so genannter Software-defined Architekturen (SDA) schnell und hoch skalierbar für Millionen von Kunden aufsetzen. Die Ressourcen standardisierter Hardware werden per Software hochverfügbar, sicher und automatisch konfiguriert und Kunden und deren Workloads zugewiesen. Werden neue Kapazitäten gebraucht, lassen sich die Nodes in der Software-defined Architektur schlicht um weitere physikalische Maschinen erweitern. Die SDA und ihre Software-Schnittstellen binden diese dann ein und teilen die neuen Ressourcen klug auf.

Dieses Scale-Out-Modell wird sich immer stärker zuerst bei grossen Unternehmen etablieren, die ihre Private- und Public-Clouds ähnlich schnell und einfach skalieren müssen. Die nötige Hardware darunter wird dann von Standardkomponenten und hyperkonvergenten Appliances beherrscht, die Netzwerk, Storage und virtuellen Stack von sich aus mitliefern. Fragen zu Hardware werden wegen Software-defined Modellen immer weniger relevant, da Standardkomponenten oft genügen.

3. Neue Workloads in stark gemischten Architekturen kommen auf

Während die Infrastruktur und ihr Betrieb dank SDA immer weiter automatisiert und vereinheitlicht wird, nimmt die Vielfalt bei den Applikationen und Workloads im Jahr 2019 weiter zu. Denn selbst Big Data kommt im Mainstream an und kleine und mittelgrosse Betriebe nutzen die entsprechenden Dienste der grossen Public-Cloud-Provider für erste Analysen. Nach einer Umfrage von Terradata unter 260 globalen Konzernen haben bereits 80 Prozent der Befragten im vergangenen Jahr in Künstliche Intelligenz und Machine Learning investiert, um aus ihren Daten neues Wissen zu extrahieren. Die Umsatzprognosen für Plattformen wie MongoDB, Cassandra, OpenSQL, Hadoop oder SAP HANA zeigen klar, dass auch der Mittelstand auf diesem Gebiet immer stärker aktiv wird.

Diese Plattformen generieren eigene Workloads und bringen eigene Architekturen mit. Und sie können in der Regel eng mit den Diensten der Cloud-Anbieter interagieren, weil sie gemeinsame Schnittstellen teilen oder der Cloud-Dienstleister selbst die Plattform als Fundament des eigenen Big-Data-Moduls nutzt. Unternehmen werden im Idealfall in der Lage sein, für jede Aufgabe den geeigneten Dienst aus der Cloud zu wählen, wie aus einem virtuellen Werkzeugkasten. Die Workloads werden zwangsläufig immer häufiger verschiedene multiple Clouds miteinander verbinden, so dass ein Unternehmen aus Architektursicht einen bunten Mix aus hybriden und Public-Cloud sowie lokalen Ressourcen betreiben wird.

4. Experten werden knapp

Die EU-Kommission erwartet, dass im Jahr 2020 rund zehn Millionen Bürger in der EU als so genannte Data Workers tätig sein werden. Es braucht allerdings viel IT-Verstand, um die dafür nötigen Architekturen und Applikationskonzepte zu entwickeln und aufzusetzen.

Es ist für 2019 und später zu erwarten, dass Firmen immer stärker um die Talente auf diesem Gebiet streiten werden. Schon jetzt beziehen sich zwei der vier IT-Zertifizierungen mit dem höchsten Einkommen auf Cloud-Entwicklung und die Lösungsarchitektur in der Cloud. Fehlendes Wissen und Mitarbeiter gelten als eine der Hürden bei der Digitalisierung in der Schweiz.

Aus dem Expertenmangel erwächst ein weiterer Trend: Die IT-Systeme müssen radikal einfacher zu betreiben sein. Denn den IT-Abteilungen stehen für den Digitalisierungsprozess kaum steigende Budgets zur Verfügung. Gleichzeitig müssen sie ihre bestehende Infrastruktur hoch verfügbar betreiben. Mit althergebrachten Betriebsmodellen und ohne die entsprechenden Fachexperten ist dieser Spagat auf keinen Fall zu schaffen. 

5. Zwang zur Simplifizierung und Autonomie nimmt zu

Systeme für Datensicherung und Backup, die einfacher zu verwalten sind, immer autonomer funktionieren und sich den neuen Workloads und Software-defined Architekturen angleichen sind in den kommenden Jahren daher der entscheidende Faktor, um die bestehenden Teams massiv zu entlasten.

Das Backup muss, wie andere interne IT-Aufgaben auch, ähnlich wie bei der Virtualisierung die physische Welt im Idealfall völlig ausklammern und vor dem Anwender verbergen. Dazu sind Automatismen sowohl bei der Erstimplementierung als auch im Betrieb unabdingbar. Für diese Aufgabe bedarf es ausgesprochen komplexer Algorithmen, die die Backup-Soft- und Hardware mit Hilfe von Machine Learning und Künstlicher Intelligenz durch die Erstkonfiguration leiten, sobald die Parameter aus der Infrastructure as Code zu ihnen durchgereicht werden.

Die Backup-Systeme müssen skalieren, und zwar horizontal sowie vertikal, denn die Datenmengen werden weiter massiv wachsen und sich geographisch noch stärker auf verschiedenste Infrastrukturen verteilen. Die Backup-Systeme im Verbund müssen miteinander sprechen, um sich über ihren aktuellen Zustand zu informieren und gleichzeitig mit Künstlicher Intelligenz Trends analysieren, um künftige Aufgaben, Lastspitzen und Engpässe zu identifizieren und entsprechend darauf zu reagieren. Dank der Künstlichen Intelligenz entsteht aus der physischen Backup-Infrastruktur ein kluger und dynamischer Verbund, der wie bei einem guten Team Stärken und Schwächen eines jeden Mitglieds berücksichtigt und sich Aufgaben dynamisch und agil gegenseitig zuspielen kann. All das muss möglichst autonom passieren, ohne dass menschliche Interaktionen nötig sind.

Ausserdem sollte das Backup-Konzept in der Lage sein, die Verantwortung für die Daten und Workloads und ihre Wiederherstellung auf mehrere Schultern zu verteilen. So wollen Mitglieder der Big-Data-Teams ihre eigenen virtuellen Ressourcen vermutlich kontrollieren und auf frühere Versionen zurückschalten, ohne auf die Backup-Teams angewiesen zu sein. Der Prozess sollte für die Big-Data-Teams in wenigen Klicks und ohne Backup-Schulung abzuwickeln sein. Sie sollen sich ja auf ihre Kernaufgabe konzentrieren und keine Zeit mit Nebenaufgaben vergeuden. Veritas als Marktführer auf dem Gebiet Backup arbeitet genau an solchen Automatismen, damit Kunden ihre Daten auch morgen mit extrem wenig Aufwand zuverlässig wiederherstellen können.

Autoren:

Roger Scheer, Vice President DACH bei Veritas Technologies
Sascha Oehl, Director Technical Sales DACH bei Veritas Technologies
Share this...
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter