Lizenzmanagement wird endgültig zur Querschnittsfunktion

Heute ist es keine allzu große Herausforderung mehr, Anwendern die von ihnen benötigte Software virtuell bereit zu stellen. Deshalb gehen viele Unternehmen, die die Betriebs- und Verwaltungskosten ihrer IT optimieren möchten dazu über, Anwendungen oder ganze Desktops zu virtualisieren. Aber welche Auswirkungen hat dieser Ansatz auf die Lizenzierung der eingesetzten Software und wie kann die IT die Kontrolle über die Compliance behalten? [...]

Die Virtualisierung von Arbeitsplätzen hat ein signifikantes Momentum in Unternehmen erreicht. Virtualisierungs-Technologien sind inzwischen ausgereift und unterstützen nahezu jede Art von Endgerät. Die korrekte Lizenzierung der virtualisierten Software, ist allerdings nach wie vor eine große Herausforderung, die bei der Umsetzung eines Virtualisierungs-Projekts nicht außer Acht gelassen werden darf. Wie groß die Komplexität der Lizenzierungsfrage ist, hängt davon ab, welche Technologien zum Einsatz kommen und welche Regeln die Hersteller der jeweils bereitgestellten Software definiert haben. Fundiertes Know-how, funktionierende Prozesse und leistungsfähige Werkzeuge sind unerlässlich, um den rechtlichen Anforderungen der Hersteller gerecht zu werden.

Viele Softwarehersteller zögern noch immer, ihre Lizenzmetriken auf Benutzer anstatt auf Hardware auszurichten. Windows und die meisten Anwendungen von Microsoft werden beispielsweise weiterhin nach physischen Geräten lizenziert und damit die Charakteristik einer auf Benutzer ausgerichteten Virtualisierung ignoriert. Da die standortunabhängige Nutzung einer Anwendung auf mehreren Geräten aber ein wesentlicher Vorteil einer Arbeitsplatz-Virtualisierung ist, liegt es auf der Hand, dass die Lizenzierungsfrage hier zum Spielverderber werden kann.

Bereits im Jahr 2011 hat Stewart Buchanan von Gartner Research eine Forschungsarbeit  über die Virtualisierung von Arbeitsplätzen aus lizenzrechtlicher Perspektive durchgeführt und kommt darin zu interessanten Schlüsselerkenntnissen:

  • Kundenerwartungen reichen von „weniger Lizenzkosten” bis „mehr Lizenzkosten”.
  • Ohne ein strammes Lizenzmanagement besteht für Kunden die Gefahr hoher Nachzahlungen bei Lizenzaudits der Hersteller.
  • Lösungsansätze, den Lizenzbedarf allein über die Inventarisierung der Software zu ermitteln, werden fehlschlagen.
  • Die virtuelle Bereitstellung von Software wird Lizenzkosten und Risiken in den meisten Fällen ansteigen lassen.

Daraus leiten sich laut Gartner Research folgende Empfehlungen ab:  

  • Hersteller, Lieferanten oder Systemintegratoren sollten in die Verantwortung genommen werden, korrekte Lizenzbedingungen für genau definierte Konfigurationen festzulegen.
  • Es muss sichergestellt sein, dass der verantwortliche Lizenzmanager in alle Maßnahmen zur Einführung von Virtualisierungs-Technologien sowie bei nachgelagerten Änderungen der Konfiguration eingebunden ist.
  • Es empfehlen sich regelmäßige Validierungskontrollen, um zu gewährleisten, dass die genehmigten Konfigurationen beibehalten werden.
  • Die Compliance sollte über den gesamten Software-Lebenszyklus hinweg dokumentiert werden.

Um diesen Empfehlungen Folge leisten zu können, sollte das Lizenzmanagement nach Best Practices prozessorientiert ausgerichtet und mit entsprechenden Befugnissen ausgestattet sein sowie nachhaltig betrieben werden.

VIELFÄLTIGE SZENARIEN

Die Virtualisierung von Anwendungen und Arbeitsplätzen gibt es in verschiedenen Ausprägungen und abhängig davon ergeben sich unterschiedliche Lizenzierungsfragen. Folgende Hauptszenarien einer Virtualisierung können, wie von Michael Silver, Research Director von Gartner beim Microsoft Virtualization Customer Roundtable  vorgestellt, unterschieden werden:

  • Remote Desktop: Windows Desktop mit Server-Betriebssystem über Fernzugriff (Terminal Server)
  • Lokale Virtuelle Maschine: Verschiedene Betriebssysteme, die in virtuellen Maschinen auf derselben Client-Hardware betrieben werden (z.B. Citrix XenClient oder VMware Horizon View).
  • Virtuelle Anwendung: Anwendungen, die – isoliert vom Betriebssystem – auf einem Server oder dem Client ausgeführt werden (z.B. Citrix XenApp, Microsoft Remote App, Microsoft App-V, VMware ThinApp).
  • Hosted Virtual Desktop: Windows Desktop mit Client-Betriebssystem über Fernzugriff (Virtual Desktop Infrastructure; VDI).

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*