Computerprogramme sind zu einem kritischen Faktor für Unternehmen geworden. Buchhaltung, Produktionssteuerung oder Lagerverwaltung sind Beispiele für Bereiche großer Firmen, die ohne sie kaum mehr vorstellbar sind. Die zum Einsatz kommenden Softwaresysteme stellen außerdem eine erhebliche Investition dar. [...]
Veränderungen innerhalb oder im Umfeld eines Unternehmens erfordern beständige Anpassungen der bestehenden elektronischen Werkzeuge, wenn ein kostenintensiver Wechsel vermieden werden soll. Ein neues Christian Doppler(CD)-Labor für „Monitoring und Evolution sehr großer Softwaresysteme“ an der Johannes Kepler Universität Linz (JKU) nimmt sich nun dieser Thematik an.
An im Unternehmensumfeld eingesetzte Programme werden häufig hohe Anforderungen gestellt. Sehr große Softwaresysteme (very-large-scale software systems, VLSS) gleichen häufig Mosaiken aus technologisch unterschiedlichen und unabhängig voneinander entwickelten Teilstücken. Dabei findet die Entwicklung „evolutionär“ durch Anpassung an neue Anforderungen, oft über einen Zeitraum von mehr als 20 Jahren statt. So steuern die Systeme beispielsweise in Industrieanlagen vom Hochofen bis zum Walzwerk verschiedenste Produktionsschritte. Doch nicht nur die unterschiedlichen Einsatzbereiche erhöhen die Komplexität. Auch die Zusammenarbeit verschiedener interner und externer Entwicklungsteams, die gemeinsam Software-Plattformen nutzen, trägt dazu bei.
Eine andere Anforderung ist die Skalierbarkeit. In diesem Zusammenhang wird darunter die Anpassung der Leistung durch das Hinzufügen von Ressourcen verstanden. Vertikale Skalierung bezeichnet dabei die Aufwertung eines einzelnen Computers (Knoten), während die horizontale eine Erhöhung der Rechner- oder Knotenanzahl beschreibt. Der springende Punkt dieses Konzepts ist, dass die Leistung des Systems auch proportional zur Aufwertung beziehungsweise zum Ausbau ansteigen soll. So sollte beispielsweise die doppelte Anzahl an Rechnern eine Verdoppelung der Leistung mit sich bringen und nicht nur etwa einen Zuwachs um 25 Prozent. Um das zu erreichen, muss allerdings die verwendete Software entsprechend aufgebaut sein.
Die Gründe für ein Ansteigen der Anforderungen können unterschiedlich sein: mehr Mitarbeiter wollen das gleiche System nutzen, das Datenaufkommen steigt, Datenbankabfragen und -auswertungen werden komplexer. Was im „Kleinen“ gut funktionierte, kann in anderen Größenordnungen versagen. Bei Weiterentwicklungen ist es deshalb aufgrund der Vielschichtigkeit der Systeme schwierig, die Auswirkungen von Änderungen abzuschätzen. Geschäftswichtige Anforderungen und Eigenschaften müssen daher während der Entwicklung und im Betrieb überwacht werden.“Im neuen Labor entwickeln wir die Grundlagen, Methoden und Werkzeuge, um die Anpassung großer Softwaresysteme an neue Anforderungen zu unterstützen und die gewünschten Eigenschaften zu überwachen“, beschreibt Laborleiter Paul Grünbacher die Aufgabenstellung in einer Aussendung. Die Anwendungsmöglichkeiten reichen dabei von Simulationen über Auswirkungsanalysen bis hin zur Identifikation von Engpässen. Bei den Forschungsmethoden setzen die Forscher auf die Entwicklung von Werkzeugprototypen, Fallstudien und empirische Untersuchungen sowie systematische Literaturreviews. Die neu eröffnete Einrichtung ist bereits das neunte CD-Labor an der JKU. Ziel der Laboratorien ist die Förderung der anwendungsorientierten Grundlagenforschung und der Brückenschlag zwischen Universitäten und der Wirtschaft. Jedes maximal sieben Jahre bestehende Labor wird zur Hälfte von Industrie-Partnern finanziert, die andere Hälfte übernimmt die aus öffentlichen Mitteln gespeiste gemeinnützige Christian Doppler Forschungsgesellschaft (CDG). Das CD-Labor für „Monitoring and Evolution of Very-Large-Scale Software Systems“ kooperiert mit Siemens VAI Metals Technologies GmbH, KEBA AG und Compuware Austria GmbH
Be the first to comment