Reell virtuell – Desktops aus der Cloud

Neben dem beherrschenden Pandemie-Thema scheinen momentan alle Kanäle geflutet mit Tipps für die Arbeit im Homeoffice. Doch abseits von Allgemeinplätzen könnte man die aktuelle Situation auch nutzen, um einmal die Hintergründe der technologischen Infrastruktur zu beleuchten, welche die Arbeit außerhalb von Betriebsräumen maßgeblich mit ermöglicht: die Desktop-Virtualisierung. [...]

Hermann Ramacher, Geschäftsführer der ADN. (c) ADN GmbH
Hermann Ramacher, Geschäftsführer der ADN. (c) ADN GmbH

Auch wenn der Umstieg nicht jedem Unternehmen gleichermaßen leichtfällt geschweige denn möglich ist, hat die Cloud-Revolution dem dezentralen Arbeiten massiv Vorschub geleistet. Während sich das anfangs auf das Teilen von Dateien über Server beschränkte, laufen mittlerweile ganz selbstverständlich eine große Zahl der täglich genutzten Anwendungen in der Cloud. Als finale Abstraktionsstufe geht der Trend in Richtung vollständig virtualisierte Desktops, also komplette Arbeitsplätze in der Cloud, die sich praktisch von jedem Gerät mit Internetverbindung aus nutzen lassen. Einmal bildlich gesprochen: Wenn ich wollte, könnte ich mir heute das CAD-Modell eines Teilchenbeschleunigers mit mehreren 10.000 Teilen auf meinem Smartphone ansehen, die entsprechende Bandbreite vorausgesetzt. Ungeachtet des praktischen Nutzens dieses Beispiels verdeutlicht es die Entwicklungssprünge, die IT in erstaunlich kurzer Zeit durchläuft.

Alte Bits in neuen Speichern?

In der grauen Vorzeit des Computerzeitalters bei IBM in den 1960ern funktionierten die ersten sogenannten Mainframe-Computer nach einem ganz ähnlichen Prinzip wie virtuelle Desktops heutzutage. Während sich im Reinraum der nicht gerade platzsparende Mainframe befand, loggten sich die Nutzer in einem Nebenraum über Terminals auf dem System ein und teilten sich die Ressourcen. Das Personal Computing brachte eine Revolution mit sich und verlagerte die Rechenkapazitäten aus raumfüllenden Rechnerschränken unter die Schreibtische, was ganz neue Probleme mit sich brachte. Unternehmen mussten so eine Vielzahl an Geräten managen, die alle gewartet und aktualisiert werden mussten. Die Vernetzung von Computern und die Entwicklung von Server-Architekturen als zentrale Knotenpunkte in den Netzwerken vereinfachte dieses Problem wieder etwas. Doch selbst heute sieht es in den allermeisten Unternehmen trotz Cloud-Computing nicht wirklich anders aus. Laufen z.B. das ERP oder produktionskritische Workloads selbstverständlich in einer Form von Cloud – ob Public, Private, Hybrid oder Multi –, so sind die Endpunkte aus Sicht der IT-Abteilungen ein unübersichtliches Chaos. Auch wenn das in Zeiten von BYOD mehr oder weniger akzeptiert wird, bringt es zwei maßgebliche Nachteile mit sich: Erstens ist die Verwaltung dieses Geräte-Dschungels aufwändig und somit teuer und zweitens ergeben sich zahlreiche Sicherheitsrisiken.

Mit VDI schließt sich der Kreis

Natürlich hat es in der Zwischenzeit viele verschiedene Ansätze zur Desktop-Virtualisierung gegeben, einschneidend war jedoch das Aufkommen von VDI – Virtual Desktop Infrastructure Mitte der 2010er-Jahre. Im Gegensatz zum Großteil der vorherigen Lösungen setzt VDI komplett auf das Outsourcen der Rechenleistung, was den Endpunkt – sprich das Gerät, mit dem auf den Desktop zugegriffen wird – vollständig entlastet. Die beiden oben genannten Nachteile lassen sich so praktisch restlos eliminieren. Die Nutzer haben nach wie vor die Freiheit, das Gerät ihrer Wahl zu nutzen, aber alle Ressourcen, Anwendungen und Dateien können wieder zentral gemanagt werden. Alles bleibt up to date und innerhalb des gesicherten Unternehmensnetzwerks. Unternehmen können so z.B. Hardware länger einsetzen – ein Gewinn für die Unternehmens- und Umweltbilanz. Neuinvestitionen fallen um ein Vielfaches geringer aus, da Endgeräte quasi kaum Leistung benötigen. Auch lassen sich Legacy-Applikationen so wesentlich einfacher und sicherer weiterbetreiben, wodurch der Kostenfaktor eines möglichen Refactorings oder einer Migration abgefedert wird. Aktuell vollzieht sich der nächste konsequente Schritt: VDI aus der Cloud. Natürlich sind virtuelle Maschinen in der Cloud absolut nichts Neues. Neu aber ist, dass die großen Hyperscaler auf den Plan treten und sich des Themas VDI annehmen.

The next big thing!?

Ob AWS, Google oder Microsoft, alle stehen in den Startlöchern, den entstehenden Markt für sich zu erobern. Einen großen Vorsprung hat dabei Microsoft mit Windows Virtual Desktop. Wer auch nur ansatzweise die Diskussion im Umfeld von Konferenzen wie der Microsoft Ignite oder der IGEL Disrupt verfolgt hat, muss das große Interesse rund um das Thema wahrgenommen haben. Wenn die Vorteile von VDI auch länger auf der Hand lagen, war die Umsetzung aufgrund der technischen Herausforderungen und des Kostenfaktors für viele Unternehmen keine rentable Option. Nun, da die Hyperscaler sich des Themas annehmen, entstehen mit Windows Virtual Desktop (WVD) Angebote, die ein äußerst attraktives Preis-Leistungs-Verhältnis bieten. Bereits jetzt nutzt eine fünfstellige Zahl von Unternehmen WVD. Dabei reicht das Nutzerprofil von kleinen und mittelständischen Unternehmen mit 10 bis 20 Nutzern bis hin zu großen Firmen beispielsweise aus dem Finanzsektor. Prognosen gehen davon aus, dass der Markt insgesamt stark wachsen wird, durch eine große Nachfrage seitens Versicherungen, des Gesundheitswesens oder auch des öffentlichen Sektors. Aber wie bereits angedeutet ist auch bei KMU das Interesse groß, da WVD ihnen eine wirklich skalierbare IT-Infrastruktur als kompletten Managed Service bietet.

Kurzer Deep Dive zu Microsoft Windows Virtual Desktop

Neben den zahlreichen genannten Vorteilen stellt WVD weit mehr als bloßes VDI aus der Cloud dar. Nahezu alle Firmen nutzen für ihr Identitätsmanagement eine Form von Active Directory. Windows Virtual Desktop nutzt das Azure AD, das die Verwaltung von Nutzern und Sicherheitsgruppen noch einmal wesentlich vereinfacht.

Ein weiterer großer Pluspunkt in Sachen Kosten und Skalierbarkeit ist Windows 10 Multisession, das erste echte Multi-Client-Windows. Wer auf diesem Gebiet bewandert ist, weiß: Wollte man früher eine Multi-Client-Windows-Lösung realisieren, war man auf Windows Server angewiesen, was eine lange Liste von Problemen mit sich brachte. Viele Applikationen lassen sich schlichtweg nicht auf einem Server-OS installieren oder man muss ihnen vorgaukeln, sie liefen auf einem normalen Windows-Klienten. Windows 10 Multisession macht den parallelen Betrieb mehrerer regulärer Windows-Sitzungen möglich und Unternehmen profitieren von einem vorteilhaften Lizenzierungsmodell. Auch für Windows-7-Nutzer gibt es einen Silberstreifen mit WVD: Wer auf Windows 7 (noch) nicht verzichten kann, der erhält bei einer Migration auf WVD für die nächsten drei Jahre kostenfrei weiterhin alle Sicherheitsupdates.

Zudem wurde viel an der Optimierung des Nutzererlebnisses von Office 365 innerhalb von Windows Virtual Desktop getüftelt. Da im Prinzip jede Anmeldung bei WVD wie die erste Anmeldung auf dem System wäre, würde z.B. das Öffnen von Outlook bei sehr großen Postfächern aufgrund des fehlenden Caches eine halbe Ewigkeit dauern, was elegant durch die Speicherung des Nutzerprofils auf einem SMB gelöst wurde. Diese und weitere technischen Verbesserungen verdankt das Produkt dem Aufkauf von FSLogix durch Microsoft. Über eine weitere Entwicklung von FSLogix ist es beispielsweise möglich, Applikationen ohne Installation zur Verfügung zu stellen, sodass diese stets aktuell von einem Speicherort aus bei jeder Anmeldung geladen werden können, als ob sie tatsächlich auf dem System installiert wären.

Das Ende des realen Desktops?

Wer denkt, Citrix und Co. würden jetzt durch Microsofts eigene Lösung verdrängt, hat weit gefehlt. Von Anfang an war Citrix in das WVD-Projekt involviert und kann mit seinen eigenen Lösungen auf WVD aufbauen und dadurch zusätzliche Mehrwerte anbieten. Ich gehe davon aus, dass VDI in 5 bis 10 Jahren quasi in allen Organisationen eine Rolle spielen wird. Schon jetzt beobachten wir, dass Unternehmen ihre Rechenzentren an Microsoft verkaufen und diese dann zu neuen Azure-Regionen werden. Sie realisieren, dass das Betreiben eines Rechenzentrums schlichtweg nicht zu ihren Kernkompetenzen gehört und wenig zu ihrem Geschäftserfolg beiträgt, während Hyperscaler diese Aufgabe wesentlich besser und kostengünstiger übernehmen können. Vorstellbar ist, dass langfristig alle Desktops in die Cloud gehen – warum, habe ich oben aufgezeigt. Die Vendoren-Landschaft wird sich dabei in Zukunft nicht wesentlich von der heutigen unterscheiden, mit dem Unterschied, dass Microsoft und andere die grundlegende Infrastruktur bereitstellen, auf die das Partner-Ökosystem seine VDI-Angebote aufbaut. So profitieren alle von der Zukunftsfähigkeit von Clouds wie Azure, während sie auf einen breiten und ständig evolvierenden Technologie-Stack zugreifen können.

*Hermann Ramacher ist Geschäftsführer der ADN.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*