Nov 05, 2014


Immer mehr Firmen und Organisationen virtualisieren ihre Desktops. Laut Gartner soll allein der Markt der gehosteten virtuellen Desktops bis Ende 2016 auf über 76 Millionen wachsen. IDC sieht das ähnlich und geht sogar davon aus, dass der Umsatz der gehosteten Virtual Desktop Infrastructure (VDI) auf eine Milliarde Euro in den nächsten drei Jahren wachsen könnte.


Was hat sich verändert? Und warum kriegt die Desktop Virtualisierung – nach jahrelangen falschen Versprechungen und nie erfüllten Erwartungen - auf einmal doch „die Kurve“?


EINE HANDVOLL GRÜNDE SPRECHEN DAFÜR:


1. Neue Storage-Technologien und sinkende SSD Preise
2. Neue Programm- und OS-Layering-Technologien
3. Höhere Akzeptanz am Arbeitsplatz
4. Neue Technologien verbessern das Benutzererlebnis
5. Neue Technologien reduzieren Kosten und Komplexität

 

NR. 1: Neue Storage-Technologien und sinkende SSD Preise


Eine der größten Herausforderungen bei der Desktop Virtualisierung war die schwankende und „spitzenbesetzte“ Natur der IOPS während eines Arbeitstags. Normalerweise ist die Benutzung eines Desktops recht schreiblastig (oft 80/20), aber die Boot Storms und Anti-Virus Scans erzeugen hohe Leseraten. Nächtliche Wartungsintervalle (wie zum Beispiel Desktop Rebuilds, um Windows und Programmupdates zu installieren) sorgen für weitere starke Häufungen im Bereich der Write-IOs. Folglich sind genügend IOs pro Sekunde (IOPS) der Schlüssel, um eine akzeptable Desktop-Performance für die Benutzer zu liefern - während das Damoklesschwert der hohen Spitzenbelastungen über dem Ganzen schwebt.


In den „frühen Jahren“ der VDI lag die einzig mögliche Wahl bei den klassischen Festplatten-SANs. Die IT-Abteilungen nutzen ihre Arrays, um damit die VDI-Pilotprojekte durchzuführen. Alles sah gut aus, VDI wurde ausgerollt, und dann kamen die Belastungsspitzen im Produktiveinsatz. Genau an diesem Punkt fuhren viele VDI-Projekte an die Wand: Die Benutzer beschwerten sich, die Manager fragten, ob das Ganze ernstgemeint sei. Die Folge: Allein aufgrund ungenügender IOPS wurden diese Projekte eingestampft und ad acta gelegt.


Die Lösung zu dem Zeitpunkt: Mehr Spindeln. Und zwar so viele, dass die benötigten IOPs bereitgestellt werden konnten. Ein solches Budget hatten allerdings die wenigsten Abteilungen. Und: Alle ROI-Berechnungen waren von diesem Zeitpunkt an Makulatur.


Manche behalfen sich mit einer I/O-Beschleunigungssoftware – was dem sowieso schon nicht trivialen Thema weitere Komplexität und einen weiteren Point Of Failure hinzufügte.


Was sich verändert hat:


Die Kosten von Solid State Drives (SSD) und Flash-Speicher fallen stetig. Kombiniert mit den teils recht abgefahrenen Innovationen im Bereich der Storage-Technologie, zeigt dies IT-Abteilungen neue kostengünstige Wege auf, um den Performance-Anforderungen der virtuellen Desktops entgegenzutreten.


Flash-Optimierter Hybrid Storage: Eine neue Generation der hybriden SAN Arrays von Hersteller wie Fusion-io, Nimble und Tintri benutzen hoch-performante(n) RAM und/oder SSDs in Kombination mit klassischen Festplatten, um die Kapazität, Performance und Kosten zu optimieren. Vielgenutzte Daten (hot data) werden im SSD oder RAM Tiers gecached und Write-IOs werden zusammengefügt um die Geschwindigkeit zu maximieren. Weniger genutzte Daten (cold data) werden auf Festpatten gespeichert, um die Kapazität zu erhöhen.


• Reine Flash Storage Arrays: Purestorage bietet Techniken zur Datenreduzierung (mit Deduplizierung, Kompression und Thin Provisioning), um damit die Datenmenge dramatisch zu reduzieren. Gleichzeitig wird von der Geschwindigkeit der 100% SSDs profitiert. Das Ergebnis ist ein Array, dessen angegebene Größe 5-10x größer als der tatsächlich benötigte Platzbedarf ist. Das reduziert die Kosten pro GB und macht All-Flash bezahlbar.
• Konvergentes Storage: Eine neue Generation der sogenannten konvergenten Storagesysteme von Herstellern wie Nutanix ermöglichen benutzen günstigen lokalen Storage, welcher als Teil eines virtuelles Storagepools (von vielen Hosts) verwaltet und benutzt wird. Dies ermöglicht Firmen, der Flash-Technologie durch die „kleine“ Lösung intern zum Durchbruch zu verhelfen, ohne ein zentrales System benutzen zu müssen, welches unter Umständen zu höheren Latenzen führen kann. VMwares Virtual SAN Lösung verfolgt einen ähnlichen Ansatz - ist allerdings (momentan) eher nur für kleinere VDI-Projekte geeignet.

 

NR. 2: Neue Programm- und OS-Layering-Technologien


Abgesehen vom Storage, waren die zu benutzenden Applikationen immer das größte Problem von VDI. Programmvirtualisierung wurde als „die ultimative Möglichkeit“ verkauft, um Programme auf virtuellen Desktops zur Verfügung zu stellen. Aber die „traditionelle“ Herangehensweise führte bei früheren VDI-Projekten meistens zu drei Problemen:


• Schwierig und zeitintensiv: Microsoft App-V, VMware ThinApp, Citrix XenApp und andere Programmvirtualisierungstools funktionieren prima, wenn es darum geht, Programme zu isolieren und Konflikte zu verhindern. Aber das Isolieren ist leider zumeist nicht das, was für die meisten Programme benötigt wird. Der Aufwand, mehrere Programme in eigenen geschützten „Blasen“ zu paketieren, kann kleine IT-Teams schnell überfordern. Und während Desktop-Setup, Pre-Scans, Post-Scans, Scripting Workarounds, Windows Registry Änderungen und schlussendlich die Pakete verteilt werden, ist ein kompletter Arbeitstag gerne schnell vergangen. Manche Administratoren haben wochenlang versucht, nur eine Applikation zu virtualisieren.
Nicht alle Programme können virtualisiert werden: Selbst der Experte weiß: Es gibt eine lange Liste von Programmen, die nicht mit den traditionellen Technologien und Tools virtualisiert werden können. Programme mit Systemdiensten und Treibern, die während der Bootphase geladen werden (zum Beispiel Antivirus, Drucker, Scanner etc.), „selbstgebaute“ Tools und Programme mit komplizierten Installationsroutinen funktionieren oft einfach nicht.
• Isolierte Programme können nicht untereinander kommunizieren: Das Isolieren der Programme packt diese in schützende „Blasen“, welche sie vom OS und anderen Programmen versteckt. Das ist toll, wenn mehrere Versionen der gleichen Software auf einem Desktop benutzt werden müssen (zum Beispiel Java, Microsoft Access oder bestimmte Webbrowser). Aber es ist ein K.O.-Kriterium für den Großteil der Programme, die untereinander Daten austauschen, aufeinander verweisen und miteinander kommunizieren müssen.


Was sich verändert hat:


Eine neue Generation von Programm- und OS-Layering-Technologien ermöglicht einen neuen, einfachen und umfassenderen Ansatz um Programme für VDI zu virtualisieren. Mittels Layering von Unidesk können das Windows OS und sämtliche Programme einzeln virtualisiert und dann granular in allen Varianten miteinander kombiniert werden.


Eine richtig gute Progamm-Layering-Technologie erfasst jede Datei und jeden Registry-Key der sich vom zugrundeliegenden OS-Image unterscheidet. Programme können in allen möglichen Variationen den Desktops zugewiesen werden – somit übernimmt die Layering Engine den „harten Job“, alle Dateien und Registry-Schlüssel zu einem „vereinigtem“ Dateisystem (und damit auch perfektem C-Laufwerk) zusammenzufügen. Dieser Schritt – der oberhalb des Hypervisors aber knapp unterhalb des Windows OS passiert, bevor ein Desktop startet – ermöglicht es, jedes Programm zu „layern“.


Der virtuelle Desktop wird zunächst aus dem Windows OS Layer zusammengesetzt. Als nächstes werden die Programmlayer hinzugefügt, am Ende folgt der Personalisierungslayer. Das sorgt für die gleiche Reihenfolge, die die Endbenutzer bei normalen PCs gewohnt sind: Teile der Programmlayer ersetzen das OS und Personalisierungslayer, die die Benutzereinstellungen enthalten, ersetzen Teile der Programmlayer.
Ein Programm in einen Layer zu virtualisieren, ist schnell, einfach und dauert meistens nicht länger als 15 Minuten: Ein Administrator loggt sich auf einer VM ein, installiert das Programm (wie er es normalerweise auf einem normalen Desktop täte) und drückt zum Abschließen auf einen Button. Der Programmlayer kann nun jedem Desktop mit dem gleichen zugrunde liegendem OS zugewiesen werden. Dieser Prozess ist so einfach, dass selbst Praktikanten oder Supportmitarbeiter Programme „layern“ können.


Die Programmlayer sind nicht voneinander isoliert. Gegenüber dem Windows OS erscheinen sie wie direkt installiert und verhalten sich auch untereinander so: Kunden, die Add-Ins oder Plug-Ins für Microsoft Office oder andere wichtige Programme benötigen, können diese in eigene separate Layer installieren. Und sie müssen sich keine Gedanken darüber machen, ob und wie diese mit den anderen Programmen funktionieren.

 

NR. 3: VDI kann jetzt intern anders „verkauft“ werden


Unzufriedene Benutzer können jedes IT-Projekt torpedieren. Das ist bei der Desktop-Virtualisierung nicht anders. Für die meisten Menschen sind Veränderungen ein Graus und alles Neue wird aus Prinzip sowieso erst einmal abgelehnt. Sofern die Benutzer nicht verstehen, was „für sie drin ist“, werden die meisten ihren klassischen PC nicht hergeben wollen. Das passierte recht oft in den früheren Tagen von VDI.


Was sich verändert hat


Schlaue IT-Organisationen versuchen nun nicht mehr virtuelle Desktops wie früher zu verkaufen: Statt um Akzeptanz zu bitten, verkaufen sie VDI über den Mehrwert für die Benutzer und Abteilungen, erreichen damit den notwendigen Konsens und nehmen so die Endbenutzer „mit“.

 

NR. 4: Neue Technologien verbessern das Benutzererlebnis


VDI in der „Version 1.0” war für sein wenig brillantes Benutzererlebnis bekannt. Frühe virtuelle Desktops performten in mehreren Bereichen nicht gut im Vergleicht zu normalen PCs:


• High Definition Video und grafikintensive Programme liefen abgehackt – insbesondere bei langsamen Netzwerkverbindungen.
• Die gesamte Performance war zumeist schleppend; ganz besonders morgens, wenn sich viele Benutzer anmeldeten und einen „Boot Storm“ erschafften.
• USB-Geräte, Multi-Monitor-Konfigurationen und das Benutzen anderer Endpoint-Geräte waren bisweilen schlecht oder gar nicht unterstützt.
• Die Non-Persistent Desktops, die genutzt wurden, um Storage zu sparen, sorgten dafür, das viele Benutzereinstellungen flüchtig waren. Selbst mit Profile Management Tools gingen bei der Neuerstellung des Desktops die Einstellungen, Programme und Plug-Ins verloren. Das sorgte für eine Menge Tickets beim Helpdesk von unzufriedenen Benutzern.


Was sich verändert hat:


Durch technologische Fortschritte haben virtuelle Desktops in vielen Bereichen des Benutzererlebnisses aufgeholt – und in einigen Bereichen auch physikalische PCs definitiv überholt:


• Verbesserung der Protokolle: Das PCoIP-Protokoll von VMware Horizon View und das HDX Protokoll von Citrix XenDesktop verbesserten sich laufend: Kompression, Caching und Priorisierung von Netzwerkpaketen, intelligentes Umleiten und Nachsenden, Datendeduplizierung, Server-Side-Rendering und optimierten Desktopzugriff durch HTML5-kompatible Webbrowser ermöglichen nun ein „High-End“-Benutzererlebnis – sogar über langsamere WAN-Verbindungen.
• Verbesserungen im Bereich Storage: Die neuen Storagetechnologien (siehe Nr. 1) ermöglichen eine außerordentliche IO-Performance – genug, um die Spitzen und „Ausbrüche“ während eines Boot Storms ohne eine Spur von Trägheit zu bedienen.
• Grafik-Offload-Karten: Grafikintensive Programme wie zum Beispiel CAD-Anwendungen haben den lange benötigten Performanceschub durch dedizierte Graphics Processing Units (GPUs) bekommen. GPU-Karten von NVIDIA oder Teradici werden in den Server gesteckt und Rechenleistung der Grafik wird von der CPU auf die GPU übertragen. Damit können auch auf virtuellen Desktops ein schnelles Windows, Multimediainhalte und eine außergewöhnliche 3D-Performance ermöglicht werden.
• Verbesserte Unterstützung von Client-Geräten: Die neuen Thin- und Zero-Clients bieten mittlerweile Multi-Display-Support, Multimedia-Features, HD Audio und erweiterte USB-Unterstützung.
• Persistente Desktops auf minimalem Storage: Die neuen Image Layering Technologien (siehe Nr. 2) ermöglichen es, persistente Desktops zu erstellen und dabei gleichzeitig den Storagebedarf im Vergleich zu dedizierten VMs um bis zu 80% zu reduzieren. Wenn nun noch eine Layering-Lösung von Unidesk mit neuen All-Flash-Arrays von Purestorage kombiniert werden, kann durch Deduplizierung und Komprimierung die mögliche Einsparung bei persistenten Desktops bei über 90% liegen.

 

NR. 5: Neue Technologien reduzieren Kosten und Komplexität


Bei den ersten VDI-Projekten von 5 oder mehr Jahren stellte sich oft erst beim Übergang in den Livebetrieb der virtuellen Desktops heraus, dass der 1st Level Support diese nicht administrieren konnte. Die einzelnen Komponenten waren zu komplex, die Level 2 und 3 IT-Administratoren mussten übernehmen. Leider waren das meistens die bestbezahlten Leute, die zudem dann noch bei anderen, strategisch wichtigen IT-Projekten fehlten.


Alles andere als eine annehmbare Situation. Vor allem vor dem Hintergrund, dass VDI gerne mit Argumenten wie „IT-Vereinfachung“, „Effizienzsteigerung“ oder „Zeit sparen“ verkauft wurde – zumeist noch vor den Punkten „Sicherheit“ und „Mobilität“.


Dazu kam: Allein die Anzahl der Technologien und Tools wie Linked Clones, Provisioning Server, Machine Creation Services, View Composer, ThinApp, XenApp, App-V, Persona, User Profile Management, Personal vDisk und weitere Add-Ons von Drittherstellern stellte eine hohe Hürde für Administratoren kleinerer IT-Teams dar.


Auch das Erstellen und Administrieren von separaten SANs, Netzwerken und Serverfarmen für virtuelle Desktops fügte noch einmal einen signifikanten Aufwand für die schon belasteten IT-Abteilungen hinzu.


Was sich verändert hat:


• Das VDI Management: Viele Jahre lang konnten Administratoren die Kosten für das Management der ausgerollten PCs nur mit einer „Desktop Management Software“ reduzieren (Gartner nennt diese “PC Configuration Lifecycle Management”). Unidesk hat als erster Hersteller eine umfassende Desktop Management Software speziell für VDI herausgebracht. Mit der Unidesk Layering Technologie werden Dinge wie separates Desktop Provisioning, Storageoptimierung, Application Virtualization, Image Management, Profile Management usw. überflüssig. Das VDI Management geschieht über eine einzige, sehr einfach zu bedienende Oberfläche – und kann sehr schnell vom Level 1 Support erlernt und administriert werden.
• Die Storage Infrastruktur: Egal ob neue „konvergente“ Storagesysteme wie von Utanix oder extrem leistungsstarke All-Flash-Arrays von Purestorage in Verbindung mit Datacenter Switchen von Alcatel-Lucent betrachtet werden: Es gibt mittlerweile Produkte, die einfach zu installieren und einfach zu bedienen sind. Hochkomplexe SAN und NAS Lösungen müssen nicht mehr zwangsläufig eingesetzt werden.


Diese beiden Punkte führen dazu, dass das Thema VDI weniger komplex geworden und es dadurch mittlerweile möglich ist, virtuelle Desktops erheblich günstiger zu betreiben als normale PCs. Die einfache Bedienbarkeit sorgt zudem dafür, dass VDI nun tatsächlich über die operative Effizienz argumentiert werden kann.


Ihr Gordon Kirstein