So managen Sie IT-Services: ITIL ist erst der Anfang

Erfüllt die Implementierung von Prozessstrukturen schon die Bedingungen für ein leistungsorientiertes Management der IT-Services? Wohl kaum! Deshalb bringt ITIL noch keine Verbesserung. [...]

Wenn ein Thema die strategische Ausrichtung und operativen Maßnahmen im IT-Management der Unternehmen in den vergangenen zehn Jahren beherrschte, dann war es ITIL. An diesem Thema kam praktisch kein IT-Verantwortlicher vorbei. Das Regelwerk hatte wie kaum eine Methodik zuvor gewaltigen Einfluss auf das Selbstverständnis und die Strukturen in den IT-Services, denn es ersetzte die funktionalen Organisationsprinzipien durch Prozessdenken.
Diese Neuorientierung war schon wegen des effizienteren Einsatzes der immer knapperen IT-Ressourcen notwendig. Zudem lässt sich die heute typische Prozessorientierung auf der Business-Ebene nur begrenzt mit einem funktionsorientierten IT-Service-Management (ITSM) kombinieren. Eine solche Konstellation würde zu erheblichen Friktionen, Leistungsverlusten und beträchtlichen Fehlerrisiken führen und damit die Performance in den Geschäftsprozessen gefährden.
Insofern haben die IT-Organisationen einen guten Job gemacht, als sie mittels der ITIL-Strategien auch die Prozessorientierung etablierten. Sie schufen damit eine prozessuale Durchgängigkeit zu den Geschäftsabläufen. Ohne diese Weichenstellung wären künftige Steuerungsmodelle für Business-bezogene IT-Services kaum möglich; es würde der klare Ordnungsrahmen fehlen.
ITIL-Projekte verursachen einen großen Energieaufwand mit meist erheblichen Investitionen in die Reorganisationen und Mitarbeiterschulungen. Sie zahlt sich insofern aus, als sie eine entscheidende Investition in die Zukunftsfähigkeit der IT und des Unternehmens darstellt. Daneben ist die systematische Prozessgestaltung auf der operativen Ebene eine wichtige Voraussetzung für alle weiteren Optimierungsinitiativen im Betrieb.
DER NÄCHSTE SCHRITT IN DER EVOLUTION
Trotzdem stellen sich die IT-Verantwortlichen zunehmend die Frage, ob die Implementierung von Prozessstrukturen schon die notwendigen Bedingungen für ein leistungsorientiertes Management der IT-Services erfüllt. Tatsächlich wurde ein -eminent wichtiger – Meilenstein im Evolutionsprozesse der IT-Organisationen erreicht. Aber die Prozessgestaltung darf doch keineswegs gleichgesetzt werdne mit der konkreten Leistungsfähigkeit jedes einzelnen IT-Services: Im einen Fall handelt es sich um die strukturelle Ebene, im anderen um die Prozessqualität. Der Evolutionsweg der IT führt nach der Etappe des funktionsorientierten Managements und dem anschließenden Aufbau eines prozessorientierten Managements zum qualitätsorientierten Management.
Dasselbe Phänomen lässt sich überall bei neuen Techniken und Methoden beobachten. Dort wird typischerweise zunächst der Fokus auf die Etablierung im Markt gerichtet; in der weiteren Entwicklung rückt die qualitative Ausformung in den Mittelpunkt. So etwa beim Mobiltelefon: Anfangs reichte löst die Möglichkeit des Telefonierens unterwegs bei den Benutzer schon ein persönliches Glücksgefühl aus. Doch als das Handy zur Selbstverständlichkeit geworden war, fragten die Nutzer gezielt Qualitätsmerkmale nach: Netzverfügbarkeit, Bedienbarkeit, technische Integrationsfähigkeit und anderen Endgeräte-Features.
DAS UMDENKEN HAT BEREITS BEGONNEN
Neu ist der Qualitätsbegriff in den IT-Organisationen zweifellos nicht. Beispielsweise hinsichtlich der technischen Performance von Systemen oder Netzwerken ist er gang und gäbe. Der zusätzliche Fokus richtet sich jetzt auf die Prozessqualität. Ihre Notwendigkeit und methodischen Umsetzung wurden bisher nur ansatzweise diskutiert.
Andererseits beschäftigen sich viele IT-Verantwortliche offenbar für sich allein durchaus mit den Thema, und sie messen ihm große Bedeutung bei. Als die ITSM Consulting AG im vergangenen Jahr Unternehmen danach befragte, welchen Zielen sich das IT-Service-Management mittelfristig besonders widmen werde, nannten sie zwar vor allem die Kostenoptimierung, doch direkt hinter diesem Klassiker platzierten sie die Qualitätssteuerung der IT-Prozesse.
Hinter diesem Votum verbirgt sich die Erkenntnis, dass es den Anforderungen im Unternehmen längst nicht mehr gerecht wird, wenn sich die IT auf die Systematisierung und Standardisierung ihrer Prozesse beschränkt. In jedem einzelnen IT-Service können erhebliche Leistungsschwächen schlummern, die lange unbemerkt bleiben, aber plötzlich weitreichende Konsequenzen bis hin zur längerfristigen Unterbrechung marktnaher Geschäftsprozesse auslösen können.
In den Business-Prozessen wird Performance längst über qualitätsbezogene Kriterien gesteuert. Höchste Zeit, dass die Steuerung der IT-Prozesse diesem Beispiel folgt.
SYSTEMATISCHE SCHRITTE ZU IT-QUALITY
Auf dem Weg zur qualitätsorientierten Steuerung der IT-Prozesse mangelt es meist noch an den methodischen Grundlagen. Damit fehlen am Ende auch die Kennzahlen, mit denen sich die qualitativen Erfordernisse zumindest der wichtigsten IT-Services definieren und bewerten lassen. Wie lässt sich dieses Manko beheben?
Am Anfang steht eine Bewertung der Qualitätserfordernisse in den jeweiligen IT-Prozessen. Sie verlangt nach klaren Kriterien, die beispielsweise in Verfügbarkeit, Zuverlässigkeit, Leistungsfähigkeit und Konformität bestehen können.

  • Zur Verfügbarkeit gehört die Definition, in welcher vereinbarten Zeit eine Anwendung zur Nutzung bereitstehen und wie schnell sie nach einem Ausfall wiederhergestellt sein soll.
  • Die Zuverlässigkeit betrifft den tolerierten Grad an Nutzungseinschränkungen und Fehlern, deren Wahrnehmungszeit und die Zeitdauer für die Problembeseitigung.
  • Die Leistungsfähigkeit misst die Geschwindigkeit der Verarbeitungsschritte innerhalb vorgegebener Zeitfenster.
  • Die Konformität gibt Auskunft über die Vertraulichkeit und Integrität der genutzten Informationen.

Diese Qualitätskriterien stellen zunächst eine generelle Matrix dar. Sie sind nicht besonders hilfreich, solange sie nicht mit konkreten Leistungsanforderungen versehen werden. Hierfür muss zunächst der qualitative Unterstützungsbedarf des Business ermittelt werden. Daraus lassen sich dann die Anforderungen an die IT-Services ableiten.
RISIKOPOTENZIALE IN DEN IT-PROZESSEN
Prinzipiell ist ein solches Prozedere für jeden einzelnen IT-Prozess notwendig. Aber nicht alle Prozesse haben großen Einfluss auf die Leistungsfähigkeit der Unternehmensorganisation; von daher reicht üblicherweise eine Konzentration auf die kritischen IT-Prozesse.
Damit wäre also der Leistungsbedarf ermittelt. Aus diesem Ergebnis sind konkrete Kennzahlen abzuleiten, um eine operable Grundlage für eine systematische Qualitätssteuerung zu schaffen. Zudem stellen die Kennzahlen die Bezugsgrößen für die im nächsten Schritt zu realisierende Ist-Analyse der prozessindividuellen Leistungsprofile dar.
Bei dieser Statusaufnahme empfiehlt es sich, die jeweiligen „Service-Owner“ anhand von differenzierten Fragebögen zu interviewen. Anhand der Antworten lassen sich Aussagen zum Qualitätszustand des jeweiligen Services treffen. Durch den Vergleich der Ist-Analyse mit dem geforderten Qualitätsprofil erhalten die IT-Verantwortlichen einen konkreten Hinweis, welche Risikopotenziale in den einzelnen Prozessen lauern.
In einem DAX-Unternehmen hat ITSM Consulting ein Modell implementiert, das diese Werte in einem IT-Quality-Index darstellt. Er bildet die bestehenden Leistungsbedingungen konsolidiert in einem Index-Wert ab und macht die Gesamtsituation auf einen Blick erkennbar.
PRÜFKONZEPT AUF BASIS VON COBIT
Voraussetzung für ein systematisches Management der IT-Prozessqualität ist ein durchgängiges Methodenkonzept, das eine Bewertung der Organisation, Verfahren, Technik und Mitarbeiter umfasst. Es dient quasi als Fragenkatalog zur Qualitätsermittlung und stellt die Analyseprinzipien über alle kritischen IT-Services hinweg dar. In seiner operativen Handhabung sollte es möglichst einfach sein. Hilfestellung für den Aufbau eines solchen Prüfkonzepts bietet das IT-Governance-Framework Cobit.
Ein an den unternehmensindividuellen Anforderungen orientiertes Methodenwerk für das Qualitäts-Management der IT-Services kann sich jedoch nicht auf eine differenzierte Statusanalyse beschränken. Selbst wenn dieses präzise den möglichen Optimierungsbedarf ermittelt, bietet sie für sich genommen noch keine Möglichkeit zur kontinuierlichen Steuerung.
Unternehmen sind dynamische Organisationen, und demzufolge können sich Qualitätsverhältnisse unbemerkt verändern. Aus diesem Grund bedarf es eines Instruments für ein kontinuierliches Monitoring. Es dient dazu, in einem festen zeitlichen Rhythmus oder bei besonderem Bedarf – etwa wenn Leistungsschwächen erkannt werden, ohne dass deren Ursachen ersichtlich sind – den neuen Qualitätsstatus zu ermitteln. Die Kernelemente eines solches Monitoring-Instruments bestehen aus den im Prüfkonzept entwickelten Fragen zur Qualitätsbewertung, den zughörigen Kennzahlen und Prozess-Tool mit Automations- und Auswertungsfunktionen.
Das Monitoring ähnelt der initialen Statusaufnahme. Lediglich der Analyseumfang kann variieren. Die Tool-Unterstützung hilft, den Aufwand zu reduzieren. Hier ist sie notwendiger als in der Ausgangsanalyse, wo eine solche technische Implementierung den Projektaufwand deutlich komplexer gestalten würde.
* Der Artikel stammt von der deutschen Computerwoche.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*