Hagenberg: „Produktives Spannungsfeld“

Prescriptive Analytics, bei dem Erkenntnisse der digitalen Welt gleichsam "reanalogisiert" werden – und zwar in Form von konkreten Handlungsvorschlägen – ist eines der Schwerpunktthemen des Softwareparks Hagenberg. Die COMPUTERWELT sprach mit dessen Leiter Michael Affenzeller, der auch Vizedekan für Forschung am Campus Hagenberg der FH Oberösterreich ist. [...]

FH-Prof. Priv.-Doz. DI Dr. Michael Affenzeller ist auch Leiter der Forschungsgruppe HEAL (Heuristic and Evolutionary Algorithms Laboratory) an der FH OÖ Fakultät für Informatik, Kommunikation und Medien. (c) Aschauer
FH-Prof. Priv.-Doz. DI Dr. Michael Affenzeller ist auch Leiter der Forschungsgruppe HEAL (Heuristic and Evolutionary Algorithms Laboratory) an der FH OÖ Fakultät für Informatik, Kommunikation und Medien. (c) Aschauer

Welche Rolle spielt im Softwarepark Hagenberg das Thema digitale Transformation? 

Für uns ist das Thema eine Selbstverständlichkeit, weil wir uns seit 20, 30 Jahren damit beschäftigen. Der Sofwarepark Hagenberg ist im Bereich von Informatik, IT, Computerwissenschaften und der Anwendungen genau in der Schnittstelle tätig – und das nicht erst seit Digitalisierung und digitale Transformation zu großen Themen geworden sind. Im Life Science-Bereich als Beispiel läuft dies schon lange unter den Bezeichnungen „Bioinformatik“, „Medizininformatik“ oder „Chemoinformatik“. Industrie 4.0 ist ein weiteres Beispiel. Was die Positionierung von Hagenberg betrifft, so würde ich sagen, dass sie eher auf der methodischen Seite liegt.

Wie unterscheiden Sie die Begriffe „Digitalisierung“ und „digitale Transformation“? 

Die Digitalisierung sehe im Bereich der Algorithmen, Methodik, aber auch in Infrastrukturthemen wie Cloud Computing. Die digitale Transformation verorte ich bei der Verästelung in alle möglichen Bereiche – sei es Industrie, Wirtschaft, öffentliche Verwaltung oder Biomedizin. Das spiegelt auch die Positionierung des Softwareparks Hagenberg wider. Einerseits ist die Basis mit Forschung, Ausbildung – darunter unsere 22 Fachhochschul-Studiengänge – und wirtschaftliche Umsetzung an einem Standort vereint. Andererseits profitieren wir von der Einbettung des Fachhochschul-Campus Hagenberg in der Interaktion mit den anderen FH-OÖ-Standorten wie Wels im Bereich Ingenieurstudien und Steyr bei Produktion, Logistik und Wirtschaftsthemen. Zudem besteht ein starker Draht zur Johannes Kepler Universität Linz. Die intensive Zusammenarbeit über alle Institutionsgrenzen hinweg erzeugt ein produktives Spannungsfeld gerade in den Bereichen Digitalisierung und digitale Transformation.

Was ist aus Ihrer Sicht der Grund, warum der Standort Oberösterreich im IT-Bereich so stark ist? 

Es gibt immer Luft nach oben, aber wir stehen tatsächlich ganz gut da. Ein Motor ist die starke wirtschaftliche Basis der produzierenden Betriebe und im Anlagenbau. Viele der Digitalisierungslösungen, die ich in Hagenberg überblicke, haben eine starke Komponente in Richtung Industrie bzw. Anlagenbau – Bereiche, in denen viele oberösterreichische Unternehmen international ganz vorne dabei sind.

Hagenberg beschäftigt sich gerade intensiv mit Prescriptive Analytics. Warum ausgerechnet dieses Thema?

Ich durfte im Jahr 2019 ein Konzept für das Land Oberösterreich verfassen, wo Prescriptive Analytics einen Schwerpunkt bildet. Ich bin der Meinung, dass wir in Europa in den Bereichen KI und Analytics mitunter zu stark den Trends hinterherlaufen, die nicht von uns definiert und gestaltet sind. Sie werden vom amerikanischen und asiatischen Raum und deren Interessen sowie von den großen Internet-Konzernen und Herstellern von mobilen Endgeräten definiert. Diese Themen entsprechen aber nicht unbedingt unseren Bedürfnissen. Daher glaube ich, dass für Mitteleuropa mit einem starken Automotive-Sektor als Beispiel eine gewisse Emanzipierung notwendig ist. Genau hier sehe ich Prescriptive Analytics positioniert.    

Was verbirgt sich hinter diesem Begriff? 

Prescriptive Analytics stellt die Verbindung von maschinellem Lernen und Data Science mit Simulation und Optimierung dar. Es geht darum, die in der digitalen Welt gewonnenen Erkenntnisse wieder in Form von konkreten Handlungsvorschlägen in die echte Welt zurückzubringen. Mit Augenwinkern gesagt: Es ist eine gewisse Art von „Reanalogisierung“. Man kann mit Hilfe von Simulationen Szenarien durchspielen und alle Eigenschaften durchleuchten. Auf Basis dessen erhält man Entscheidungshilfen entweder auf strategischer Ebene, also für das Management, oder auf operativer Ebene im Alltagsgeschäft im Sinne optimierter Produktionspläne oder intralogistischer Zusammenhänge.

Analytics und KI stehen und fallen mit der Qualität der zugrunde liegenden Daten. Sind Unternehmen überhaupt auf diese Themen vorbereitet? 

Im akademischen Bereich tendiert man dazu, diesen Aspekt etwas zu unterschätzen. Man arbeitet hier mit international etablierten und relativ sauberen Benchmarkdatensätzen. In den Echte-Welt-Projekten, die wir gerade im Fachhochschulumfeld intensiv betreiben, sieht man: Oft drehen sich 80 Prozent der Arbeit um das Thema Datenqualität. Machine Learning ist nur das Sahnehäubchen. Es gibt aber Unternehmen, die bereits auf einem sehr hohen Niveau angekommen sind. 

Was sind Ihre weiteren Pläne?

Es gibt gewisse Grundfeste, die sich über die Jahre als stabile Basis erwiesen haben. Wir sehen, wie viel Kraft in dem System steckt, das die Bereiche Software, IT, Medien sowie die Felder Forschung, Ausbildung und wirtschaftliche Umsetzung an einem einzigen Standort umfasst. Auf der anderen Seite gilt es, immer dort die Augen und Ohren offenzuhalten, wo ein dynamischer Wandel stattfindet. Es ist eine fortwährende Aufgabe, Themen intensiv zu betrachten und mitzugestalten, bevor sie Mainstream werden. Die Historie zeigt, dass dies dem Softwarepark Hagenberg immer sehr gut gelungen ist.

Welches Thema ist in der Pipeline? 

Etwas, das uns derzeit sehr beschäftigt, ist eine holistischere Betrachtung des Lernbegriffes. Derzeit ist er fast ausschließlich auf maschinelles Lernen an Daten reduziert. Eine Forschungsgruppe im Josef Ressel Zentrum am FH OÖ Campus Hagenberg untersucht die Möglichkeit, datenbasiertes Knowhow und A-priori-Wissen zu kombinieren. Das kann naturwissenschaftliche Grundlagen betreffen oder auch menschliche Erfahrung bzw. Intuition.

Sehen Sie darin die generelle Weiterentwicklung von KI – Stichwort „General AI“? 

Die oft beschriebene Zielsetzung in Richtung einer General AI halte ich für sehr fern. Ich glaube, dass durch ein immer komplexeres Zusammenwirken von spezialisierten Systemen der Anschein erweckt wird, dass tatsächlich General AI dahinter wäre, ohne dass es so ist. Ein großer Treiber dieser Entwicklung – und da gibt es auch bei uns sehr viele Aktivitäten –, ist „Human Centered AI“, bei der der Mensch quasi mit der Maschine zusammenarbeitet und wir uns als Teamplayer sinnvoll einbringen können.


Mehr Artikel

Claudia Jandl, Head of Industry Financial Services bei NTT DATA DACH (c) Marc Conzelmann/M8 Media House
News

So nutzen Banken GenAI

Eine aktuelle Studie von NTT DATA zeigt, dass mit der zunehmenden Verbreitung von GenAI der Druck auf den ROI an erster Stelle der Herausforderungen steht, denen sich die Finanzbranche stellen muss. ​ […]

News

Bye-bye VMware: Wie sich erste Unternehmen aus der Abhängigkeit befreien

Seit der Übernahme durch Broadcom sind VMware-Kunden mit massiven Preissteigerungen konfrontiert. Doch nicht alle sind bereit, die bittere Pille zu schlucken. Wie der Weg aus der Kostenfalle gelingt, macht etwa der österreichische Cloud-Anbieter Anexia vor, der kürzlich mehr als 12.000 virtuelle Maschinen von VMware auf die Open-Source-Technologie KVM (Kernel-based Virtual Machine) migriert hat. […]

News

HR am Limit: HR Inside Trendreport 2025 ortet dringenden Handlungsbedarf

Nie zuvor waren die Anforderungen an Personalabteilungen höher, noch nie war die strategische Bedeutung von HR so groß wie heute. HR ist zum entscheidenden Faktor für die Zukunftsfähigkeit von Unternehmen geworden. Der HR Inside Trendreport 2025 liefert Antworten auf die brennendsten Fragen der Branche und zeigt, worauf sich Unternehmen und HR-Profis jetzt einstellen müssen […]

News

Zero Trust: Fünf Gründe, warum Mikrosegmentierungsprojekte scheitern

Die Mikrosegmentierung ist zu einem Eckpfeiler von Zero-Trust-Architekturen geworden, da sie eine granulare Kontrolle des Netzwerkverkehrs verspricht und die Angriffsfläche erheblich reduziert. Entsprechende Lösungen erweisen sich jedoch oft als komplex. Trotz des Potenzials der Mikrosegmentierung und des Engagements der Projektverantwortlichen kommen viele Projekte zum Stillstand oder scheitern völlig. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*