Johannes Kepler Universität in Linz: CD-Labor zur Überwachung großer Softwaresysteme eröffnet

An Programme im Unternehmensumfeld werden häufig hohe Anforderungen gestellt. Sehr große Softwaresysteme gleichen oft Mosaiken und sind daher besonders komplex. [...]

Applikationen sind zu einem ­kritischen Faktor für Unternehmen geworden. Ohne Buchhaltung, Produktionssteuerung oder Lagerverwaltung geht in größeren Betrieben gar nichts. Die zum Einsatz kommenden Softwaresysteme stellen außerdem eine erhebliche Investition dar.

Veränderungen innerhalb oder im Umfeld eines Unternehmens erfordern beständige Anpassungen an die gesamte Infrastruktur, wenn ein kostenintensiver Wechsel vermieden werden soll. Ein neues Christian Doppler (CD)-Labor für »Monitoring und Evolution sehr großer Softwaresysteme« an der Johannes Kepler Universität Linz (JKU) nimmt sich nun dieser Thematik an.

An Programme im Unternehmensumfeld werden häufig hohe Anforderungen gestellt. Sehr große Softwaresysteme (very-large-scale software systems, VLSS) gleichen häufig Mosaiken aus technologisch unterschiedlichen und unabhängig voneinander entwickelten Teilstücken. Dabei findet die Entwicklung »evolutionär« durch Anpassung an neue Anforderungen, oft über einen Zeitraum von mehr als 20 Jahren statt. So steuern die Systeme beispielsweise in Industrieanlagen vom Hochofen bis zum Walzwerk verschiedenste Produktionsschritte. Doch nicht nur die unterschiedlichen Einsatzbereiche erhöhen die Komplexität. Auch die Zusammenarbeit interner und externer Entwicklungsteams, die gemeinsam Software-Plattformen nutzen, trägt dazu bei.

STEIGENDE ANFORDERUNGEN
Eine andere Anforderung ist die Skalierbarkeit. In diesem Zusammenhang wird darunter die Anpassung der Leistung durch das Hinzufügen von Ressourcen verstanden. Vertikale Skalierung bezeichnet dabei die Aufwertung eines einzelnen Computers, während die horizontale eine Erhöhung der Rechner- oder Knotenanzahl beschreibt. Der springende Punkt ist, dass die Leistung des Systems auch proportional zur Aufwertung ansteigen soll. So sollte die doppelte Anzahl an Rechnern eine Verdoppelung der Leistung mit sich bringen und nicht nur einen Zuwachs um 25 Prozent. Um das zu erreichen, muss die Software entsprechend aufgebaut sein.

Die Gründe für ein Ansteigen der Anforderungen können unterschiedlich sein: Mehr Mitarbeiter wollen das gleiche System nutzen, das Datenaufkommen steigt, Datenbankabfragen und -auswertungen werden komplexer. Was im »Kleinen« gut funktionierte, kann in anderen Größenordnungen versagen. Bei Weiterentwicklungen ist es aufgrund der Vielschichtigkeit der Systeme schwierig, die Auswirkungen von Änderungen abzuschätzen. Geschäftswichtige Anforderungen und Eigenschaften müssen daher während Entwicklung und Betrieb überwacht werden.

NEUNTES CD-LABOR AN JKU
»Im neuen Labor entwickeln wir die Grundlagen, Methoden und Werkzeuge, um die Anpassung großer Softwaresysteme an neue Anforderungen zu unterstützen und die gewünschten Eigenschaften zu überwachen«, beschreibt Laborleiter Paul Grünbacher die Aufgabenstellung. Die Anwendungsmöglichkeiten reichen dabei von Simulationen über Auswirkungsanalysen bis hin zur Identifikation von Engpässen. Bei den Forschungsmethoden setzen die Forscher auf die Entwicklung von Werkzeugprototypen, Fallstudien und empirische Untersuchungen sowie systematische Literaturreviews. Die neu eröffnete Einrichtung ist bereits das neunte CD-Labor an der JKU. Ziel der Laboratorien ist die Förderung der anwendungsorientierten Grundlagenforschung und der Brückenschlag zwischen Universitäten und der Wirtschaft. Das Labor kooperiert mit Siemens VAI Metals Technologies, Keba und Compuware Austria. (aw/apa)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*