Verknüpfung von Mainframe mit offener Serverwelt

Die Abteilung Informationstechnologie des Landes Oberösterreich ist – als traditioneller Host-Anwender – vor einiger Zeit dazu übergegangen, dezentrale Anwendungen vom Mainframe aus zu steuern. [...]

Die Abteilung Informationstechnologie des Landes Oberösterreich ist – als traditioneller Host-Anwender – vor einiger Zeit dazu übergegangen, dezentrale Anwendungen vom Mainframe aus zu steuern. Dies geschieht über das Produkt Beta 92 Enterprise Job Manager (EJM). Denn in den Rechenzentren großer Behörden wie beim Land Oberösterreich kommen schon seit längerem immer mehr Fachanwendungen zum Einsatz, die auf Windows, Linux oder Unix laufen. Die Job-Steuerung entzieht sich folglich immer stärker einer zentralen Batch-Management-Kontrolle. 
Peter Breitenberger ist Leiter des Referats „Großrechenanlage und Rechenzentrumsbetrieb“ in der Abteilung IT beim Land Oberösterreich und zuständig für Systemprogrammierung im Host-Umfeld. Für das automatisierte Scheduling von z/OS-Jobs setzt die Abteilung seit langem den IBM Workload Scheduler (IWS), vormals TWS Tivoli Workload Scheduler (TWS) ein. Parallel zu Steuerung der Host-Jobs gab es in Linz früher verschiedenste Insellösungen für das Anstoßen von Jobs auf anderen Plattformen: SAP und SQL-Datenbanken – dort fand das Scheduling jeweils autark mit eigenen Lösungen statt – sowie diverse Linux-Server. „Wir hätten zwar weiterhin mit diesen verteilten Lösungen arbeiten können“, sagt Breitenberger, „wollten aber auf ein zentrales Tool wechseln, das wir mit dem IWS verbinden können.“ 
Ausschlaggebend für den Wechsel waren die bestehenden Abhängigkeiten zwischen den verschiedenen Datenformen: Die SAP-Server laufen auf Windows, die Datenbank aber auf dem Host. War die Datenbank früher kurze Zeit für Sicherungen offline, liefen SAP-Jobs des Öfteren ins Leere. Ebenfalls mit Unsicherheiten behaftet durch das Nebeneinander der Plattformen war der File-Transfer. Hierbei werden Daten intern zwischen Landesbehörden oder auch mit externen Stellen wie Versicherungen oder Banken ausgetauscht. Dafür mussten stets verschiedene Plattformschritte durchlaufen werden.
Blieb dort irgendein Job hängen, war der Fehler nie wirklich kontrollierbar, weil der erste Job auf einer anderen Plattform lief als sein Nachfolger. Die Administratoren mussten immer wieder den Telefonhörer in die Hand nehmen und die Kollegen befragen, ob das Problem eventuell bei ihnen liegt. Schon die kurze zeitliche Verschiebung eines Transfer-Jobs konnte sich zum Problem auswachsen, wenn dessen Vorgänger nicht an die Verschiebung angepasst wurde, weil dann sofort Daten fehlten. Diese kamen dadurch verspätet bei der Gegenstelle an.
Batch-Jobs plattformübergreifend realisiert
Beta 92 EJM führt die bisherige heterogene Jobsteuerung auf den verschiedenen Plattformen in einer einheitlichen Lösung zusammen. Durch diese Ergänzung kann IWS plattformübergreifend für die Batch-Produktion des größten Teils der IT-Anwendungen einsetzt werden. IWS stößt nicht nur Host-Prozesse an, sondern kontrolliert auch das Scheduling in der offenen Welt und startet zu vorgegebenen Zeiten Skripte für Windows und Linux. „In der Arbeitsvorbereitung sehen wir heute die komplette Job-Kette vor uns und können im Fehlerfall sofort die betreffende Stelle identifizieren“, sagt Walter Osterkorn, zuständig für IBM-Produkte.
Das Scheduling serverbasierter Vorgänge vom Mainframe aus ist keine neue Erfindung, wird aber in einer sich verändernden IT-Infrastruktur heute immer wichtiger. Indem die Windows- und Unix-Produktion in das Mainframe-Scheduling integriert und dort ein Single-Point-Of-Control für plattformübergreifende Jobsteuerung und -überwachung eingerichtet wird, erhöht sich die Produktionssicherheit für dezentrale Jobs deutlich. Bei Fehlern können Breitenberger und sein Team zeitnah reagieren – und nicht erst, wenn die Gegenseite einen möglichen Datenverlust meldet.
Inzwischen haben die SAP-Kollegen den Nutzen für sich erkannt: Wenn Thomas Greifeneder aus der SAP-Basis-Betreuung morgens seine nächtlichen Logs kontrolliert, muss er keinen Ausfall nachvollziehen und den Fehler beheben, sondern die zentralen Operatoren haben sich schon darum gekümmert – einer der Vorzüge der Anbindung dezentraler Prozesse an das zentrale Scheduling.
Mehr Komfort bei komplexen Prozessen
Im Land Oberösterreich sind die SAP-Module FI, CO, MM und PS im Einsatz. „Unser früherer SAP-Scheduler bot nur äußerst rudimentäre Funktionen; komplexe Prozessketten zu starten, war damit kaum möglich“, erinnert sich Thomas Greifeneder. Der SAP-Spezialist stand besonders dann vor aufwändiger Handarbeit, wenn System-Upgrades anstanden und alle BatchJobs dafür gestoppt und anschließend wieder hochgefahren werden mussten. Durch die Verlagerung der Job-Verarbeitung auf den Host wird er heute komplett von diesen Arbeiten entlastet.
Mehrere Hundert verschiedene Job-Skripte hat die IT-Abteilung in dem Job-Manager definiert. Monatlich werden zwischen 25.000 und 30.000 Jobs im Serverumfeld vom Scheduler aus durchgeführt. Für jede einzelne Anwendung im Serverumfeld stellt die Software einen Agenten bereit.
* Frank Zscheile ist IT-Journalist in München.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*