iPad statt PC: 5 Argumente für virtuelle Desktops

Virtuelle Desktop-Infrastrukturen setzen sich nur langsam durch. Doch die Alternative zum klassischen PC, der schon oft totgesagt wurde aber dennoch hartnäckig überlebt, bietet viele Vorteile, wie ein kleiner Überblick zeigt. [...]

Analysten lieben große Worte, wenn sie neue Trends ankündigen oder alte beerdigen. So bezeichnete der CEO von Forrester George Colony den PC schon mehrfach als tot, abgelöst von Tablet-Computern und anderen mobilen Geräten, die permanent an das Internet angebunden sind, angetrieben von Apps.
Brian Madden, Spezialist für Virtual Desktop Infrastructures (VD), konstatierte 2010, dass die meisten Anwender nur ein wenig mit virtuellen Desktops herumexperimentieren würden. Die Geräte wären nicht performant genug und verfügten auch nicht über genügend Funktionen, um einen Umstieg auf breiter Front in den Unternehmen zu legitimieren.
Dabei ist es gerade erst 20 Jahre her, dass Desktop-PCs Eingang in die Büros und Werkstätten fanden. Sie lösten die zentralisierten Host-Rechner ab, indem sie über genügend CPU-Power verfügten, um Applikationen vor Ort auszuführen. Dieses Client/Server-Modell könnte nun durch Virtualisierung auf den früheren Stand zurück gesetzt werden.
1. Ausgereifte Angebote für VDI
Citrix XenDesktop 5.5 und VMware View 5 haben sich inzwischen als professionelle Angebote für größere Unternehmen etabliert. Auf der Einsteigerseite finden sich Lösungen wie Kaviza VDI-in-a-box (Anfang 2011 von Citrix übernommen), NComputing vSpace und Pano Express von Pano Logic. XenDesktop und View bieten beide sehr skalierbare Plattformen mit vielen Konfigurationsmöglichkeiten. Das Scale-out kann bis zu mehreren Dutzend Hosts und Tausenden von Usern hochgeschraubt werden.
VDI (Virtual Desktop Infrastructure) kann prinzipiell als Wiedergeburt oder Fortsetzung des Thin-Client-Computing gesehen werden: Der Rechner vor Ort wird zu einem „dummen“ Terminal, alle Applikationen werden ausschließlich auf zentralen Rechnern ausgeführt, am Arbeitsgerät braucht es keine leistungsfähige CPU, keine Anwendungen, nur wenig oder gar keinen Speicher. Thin-Client-Computing konnte sich vor allem wegen der mangelnden Übertragungskapazitäten im Netz nie so richtig durchsetzen. Gerade hier hat sich viel geändert.
2. Verbessertes Management und höherer Sicherheitsstandard
Weitere Vorteile bestehen in der größeren Kontrolle und der vermehrten Sicherheit der Applikationen. Wenn alle Anwendungen zentral installiert sind und vor Ort keine Sticks oder CDs mit Software genutzt werden können, herrscht auf Seite der IT-Administration ein großes Aufatmen: Es können keine Daten an der IT-Abteilung vorbei eingespielt oder gestohlen werden. Der ganze Prozess der Datenverarbeitung läuft in einer zentralisierten und redundanten Umgebung ab, und keine Daten verlassen unbeabsichtigt das Rechenzentrum.
Mit dem zentralen Management lassen sich zudem Patches beim Betriebssystem oder neue Versionen von Applikationen direkt bei den Master-Installationen im Rechenzentrum aufspielen. Alle Anwender erhalten dann gleichzeitig die neuen Images und Anpassungen auf ihren „dünnen“ virtuellen Maschinen. Turnschuh-Administratoren, die von PC zu PC hasten, haben in diesem Modell ausgedient.
3. Einsatz verschiedener Betriebssysteme und Endgeräte
Schon bisher musste darauf Rücksicht genommen werden, dass viele User heute Wert auf ihre eigenen Geräte und eventuell sogar eigene Software oder Tools legen. Mit Desktop-Virtualisierung spielt es keine Rolle mehr, welche Endgeräte die Mitarbeiter des Unternehmens verwenden und welche Betriebssysteme darauf laufen. Das bedeutet ganz praktisch, dass die Anwender von ihren Mac- oder Linux-Geräten und sogar von ihren iPads oder Android-Tablets Zugang auf einen unter Windows 7 gestalteten virtuellen Desktop erhalten – unter Einschränkungen sogar auf ihrem Smartphone.
4. Host-Performance
Wer sich für eine der beiden High-end-Lösungen XenDesktop oder View entscheidet, muss wissen, dass sie wesentlich mehr an Arbeitsaufwand, Wissen und Zeit für die erste Installation erfordern. Bei der Host-Hardware sollte nicht gespart werden: Multi-Prozessoren, ausreichend RAM und Plattenplatz gehören zu den absoluten Notwendigkeiten. Und sie kosten heute nicht mehr die Welt. Wer besonders viel Performance beansprucht, kommt an SSD-Platten nicht vorbei – die weiterhin deutlich teurer sind.
5. Kunden haben die Wahl
Mit Citrix XenDesktop 5.5 und VMware View 5 stehen heute die wesentlichen Bausteine für eine VDI-Lösung zur Verfügung. Beide Hersteller haben ihren eigenen Bare-Metal-Hypervisor (Typ 1). Beide steuern die Benutzeranfragen direkt zu den jeweiligen virtuellen Plattenbereichen. Und beide liefern browser-basierte Management-Werkzeuge sowie eigene Transportprotokolle – HDX (High Definition Experience) bei Citrix und PCoIP (PC over IP). Neben diesen proprietären Protokollen unterstützen beide Produkte auch Microsoft RDP (Remote Desktop Protocol).
Ein Vergleich zwischen beiden Ansätzen, den unsere US-Schwesterzeitschrift „InfoWorld“ vor kurzem veröffentlichte, kommt zu diesem Urteil: „XenDesktop und View unterscheiden sich in der allgemeinen Funktionalität kaum voneinander. Unterschiede gibt es neben den Verbindungsprotokollen hauptsächlich beim Hypervisor-Support. XenDesktop läuft auf den drei wichtigsten Hypervisor-Plattformen: XenServer, vSphere von VMware und Hyper-V von Microsoft. View ist dagegen eng verzahnt mit vSphere und unterstützt keine andere Plattform.
Bei den Endgeräten unterstützen beide Windows, Linux, iOS und Android. Citrix unterstützt darüber hinaus auch Mac OS X, Solaris, HP-UX, DOS, Symbian und einen java-basierten Client.
InfoWorld sieht insgesamt so wenig Unterschiede zwischen beiden Lösungen, dass sie in fast allen Testkategorien gleich abschneiden. Siehe hierzu diese Tabelle:
Wie der Analyst Giorgio Nebuloni von IDC mitteilt, muss man für die nächsten Jahre von einem starken Wachstum bei VDI ausgehen. Das belege schon allein die allgemeine Ausbreitung der Virtualisierung in den Unternehmen. Ausgehend von Server-Virtualisierung erfasse sie immer mehr Bereiche. Gerade Citrix und VMware legen mit jährlichen Wachstumsraten von mehr als zwölf beziehungsweise mehr als 30 Prozent deutlich zu. Client-Virtualisierung werde, so seine Prognose, davon eindeutig profitieren.
Nebuloni spricht von einem „riesigen Wachstumspotential für dieses Segment“. Das hänge auch damit zusammen, dass die Marktdurchdringung bisher noch nicht sehr weit fortgeschritten sei.
* Hartmut Wiehr ist Redakteur der deutschen CIO.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*