CD-Labor für große Softwaresysteme eröffnet

Computerprogramme sind zu einem kritischen Faktor für Unternehmen geworden. Buchhaltung, Produktionssteuerung oder Lagerverwaltung sind Beispiele für Bereiche großer Firmen, die ohne sie kaum mehr vorstellbar sind. Die zum Einsatz kommenden Softwaresysteme stellen außerdem eine erhebliche Investition dar. [...]

Veränderungen innerhalb oder im Umfeld eines Unternehmens erfordern beständige Anpassungen der bestehenden elektronischen Werkzeuge, wenn ein kostenintensiver Wechsel vermieden werden soll. Ein neues Christian Doppler(CD)-Labor für „Monitoring und Evolution sehr großer Softwaresysteme“ an der Johannes Kepler Universität Linz  (JKU) nimmt sich nun dieser Thematik an.
An im Unternehmensumfeld eingesetzte Programme werden häufig hohe Anforderungen gestellt. Sehr große Softwaresysteme (very-large-scale software systems, VLSS) gleichen häufig Mosaiken aus technologisch unterschiedlichen und unabhängig voneinander entwickelten Teilstücken. Dabei findet die Entwicklung „evolutionär“ durch Anpassung an neue Anforderungen, oft über einen Zeitraum von mehr als 20 Jahren statt. So steuern die Systeme beispielsweise in Industrieanlagen vom Hochofen bis zum Walzwerk verschiedenste Produktionsschritte. Doch nicht nur die unterschiedlichen Einsatzbereiche erhöhen die Komplexität. Auch die Zusammenarbeit verschiedener interner und externer Entwicklungsteams, die gemeinsam Software-Plattformen nutzen, trägt dazu bei.

Eine andere Anforderung ist die Skalierbarkeit. In diesem Zusammenhang wird darunter die Anpassung der Leistung durch das Hinzufügen von Ressourcen verstanden. Vertikale Skalierung bezeichnet dabei die Aufwertung eines einzelnen Computers (Knoten), während die horizontale eine Erhöhung der Rechner- oder Knotenanzahl beschreibt. Der springende Punkt dieses Konzepts ist, dass die Leistung des Systems auch proportional zur Aufwertung beziehungsweise zum Ausbau ansteigen soll. So sollte beispielsweise die doppelte Anzahl an Rechnern eine Verdoppelung der Leistung mit sich bringen und nicht nur etwa einen Zuwachs um 25 Prozent. Um das zu erreichen, muss allerdings die verwendete Software entsprechend aufgebaut sein.
Die Gründe für ein Ansteigen der Anforderungen können unterschiedlich sein: mehr Mitarbeiter wollen das gleiche System nutzen, das Datenaufkommen steigt, Datenbankabfragen und -auswertungen werden komplexer. Was im „Kleinen“ gut funktionierte, kann in anderen Größenordnungen versagen. Bei Weiterentwicklungen ist es deshalb aufgrund der Vielschichtigkeit der Systeme schwierig, die Auswirkungen von Änderungen abzuschätzen. Geschäftswichtige Anforderungen und Eigenschaften müssen daher während der Entwicklung und im Betrieb überwacht werden.“Im neuen Labor entwickeln wir die Grundlagen, Methoden und Werkzeuge, um die Anpassung großer Softwaresysteme an neue Anforderungen zu unterstützen und die gewünschten Eigenschaften zu überwachen“, beschreibt Laborleiter Paul Grünbacher die Aufgabenstellung in einer Aussendung. Die Anwendungsmöglichkeiten reichen dabei von Simulationen über Auswirkungsanalysen bis hin zur Identifikation von Engpässen. Bei den Forschungsmethoden setzen die Forscher auf die Entwicklung von Werkzeugprototypen, Fallstudien und empirische Untersuchungen sowie systematische Literaturreviews. Die neu eröffnete Einrichtung ist bereits das neunte CD-Labor an der JKU. Ziel der Laboratorien ist die Förderung der anwendungsorientierten Grundlagenforschung und der Brückenschlag zwischen Universitäten und der Wirtschaft. Jedes maximal sieben Jahre bestehende Labor wird zur Hälfte von Industrie-Partnern finanziert, die andere Hälfte übernimmt die aus öffentlichen Mitteln gespeiste gemeinnützige Christian Doppler Forschungsgesellschaft (CDG). Das CD-Labor für „Monitoring and Evolution of Very-Large-Scale Software Systems“ kooperiert mit Siemens VAI Metals Technologies GmbH, KEBA AG und Compuware Austria GmbH


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*