Lokale Datenhaltung, Compliance-Vorgaben und der Fachkräftemangel fordern die IT-Infrastruktur neu heraus. Rainer Schneemayer, Geschäftsführer und CISO von Timewarp, hat im Rahmen eines ITWelt.at-Roundtables erklärt, wie die Hybrid Cloud die Antwort auf diese Fragen sein kann. [...]
Die Digitalisierung und die stetig wachsenden Anforderungen an Flexibilität und Sicherheit haben die IT-Landschaft grundlegend verändert. Unternehmen stehen vor der Herausforderung, ihre Infrastrukturen nicht nur zukunftsfähig, sondern auch effizient, sicher und anpassungsfähig zu gestalten. Rainer Schneemayer, Geschäftsführer, und CISO von Timewarp, gab im Rahmen eines Roundtables von ITWELT.at Einblicke, wie Hybrid- und Multi-Cloud-Modelle, lokale Rechenzentren und Managed Services eine strategische Antwort auf aktuelle Trends wie Fachkräftemangel, KI-Transformation, Compliance und Nachhaltigkeit liefern.
Wie definieren Sie den Begriff „Hybrid Cloud“ und wo ziehen Sie die Grenze zwischen On-Premise und externen Services?
Wir verstehen Hybrid Cloud als die enge Verknüpfung von On-Premise-Infrastrukturen mit externen Services. Dabei differenzieren wir bei On-Premise grundsätzlich nicht, ob die Hardware physisch beim Kunden – etwa im eigenen Rechenzentrum oder Serverraum – oder bei uns im Rahmen eines Housing-Modells im Rechenzentrum untergebracht ist. Entscheidend ist, dass sich die Hardware im Besitz des Kunden befindet.
Ein hybrides Szenario entsteht für uns dann, wenn der Kunde beginnt, zusätzlich zu seiner eigenen Hardware Services von uns zu beziehen und diese nahtlos in seine Infrastruktur integriert. Dadurch werden sämtliche Komponenten unter einheitlichem Management und Monitoring geführt, sodass die Services für den Kunden wie aus der eigenen Hardware bereitgestellt erscheinen.
Dieser Ansatz spiegelt die typische Entwicklung vieler unserer Kunden wider. Für viele Unternehmen ist es ein emotionaler Schritt, die Kontrolle über die eigene Hardware abzugeben. Häufig starten sie zunächst mit einem Housing-Ansatz und verlagern ihre Hardware in eines unserer externen Rechenzentren. Mit unseren drei Standorten betreuen wir insgesamt 140 Serverschränke. Kunden profitieren dabei davon, sich nicht mehr um Themen wie Brandschutz, Zutrittssicherung oder hochverfügbare Strom- und Kühlungslösungen kümmern zu müssen.
Viele Kunden entscheiden sich im weiteren Verlauf dafür, auch die sprungfixen Kosten für Hardwareerneuerungen zu vermeiden. Sobald ihre Hardware das Ende des Lebenszyklus erreicht, möchten sie diese durch Services ersetzen. Dank der bestehenden Infrastruktur können wir unseren Kunden flexibel zusätzliche Leistungen bereitstellen – von Compute- und Storage-Services bis hin zu umfassenden Managed Services wie dem Betrieb von Kubernetes-Clustern oder Datenbanken. Diese werden vollständig in die Kundenumgebung integriert und ermöglichen so einen echten Hybrid-Cloud-Use-Case.
Wie entwickeln Sie eine ganzheitliche Strategie, um technische Flexibilität, Monitoring und Sicherheit in hybriden und Multicloud-Umgebungen effektiv zu vereinen?
Das Thema ist ein klassisches Querschnittsthema, das sämtliche Bereiche durchdringt. Es beginnt selbstverständlich bei der Technik: Die Möglichkeit, virtuelle Maschinen flexibel von einer Infrastruktur in eine andere zu verschieben, ist ein entscheidender Aspekt. Diese Zielinfrastruktur kann sich sowohl bei einem Hyperscaler in der Public Cloud als auch in unserem eigenen Rechenzentrum befinden. Die Nutzung dieser Flexibilität stellt einen wesentlichen Vorteil dar.
Gleichzeitig ist es aus unserer Sicht unerlässlich, diese technischen Möglichkeiten in ein ganzheitliches Gesamtkonzept einzubetten. Dazu gehört insbesondere ein einheitliches Monitoring, das unabhängig davon funktioniert, wo die jeweilige Workload aktuell betrieben wird. Darauf aufbauend ist ein konsistentes Sicherheitskonzept von zentraler Bedeutung.
Gerade in der heutigen Zeit, in der Cyberangriffe zur Tagesordnung gehören, ist ein übergreifendes Security-Konzept unverzichtbar – eines, das sämtliche Infrastrukturen gleichermaßen abdeckt und keine Eintrittspunkte übersehen lässt. Genau hier stehen viele Unternehmen mit Hybrid- und Multicloud-Ansätzen vor der Herausforderung, eine gemeinsame Strategie zu etablieren.
Welche konkreten Use Cases treiben aktuell die Nachfrage nach flexiblen IT-Infrastrukturlösungen – insbesondere bei KMUs – an?
Es gibt zahlreiche Anwendungsfälle, die aktuell insbesondere durch neue Compliance-Vorgaben wie DORA oder NIS 2 an Bedeutung gewinnen. Ein besonders zentrales Thema ist dabei das Disaster Recovery Service, das derzeit stark nachgefragt wird. Gerade im KMU-Bereich verfügen nur wenige Unternehmen über zwei vollwertige Rechenzentren und sind somit im Katastrophenfall oft unzureichend abgesichert.
Wir bieten unseren Kunden die Möglichkeit, ihre Daten zusätzlich in unserem Rechenzentrum zu sichern. Durch ausgearbeitete Notfallpläne und Wiederanlaufszenarien können wir im Ernstfall Daten aus dem Backup auf unserem Hypervisor wiederherstellen, die Systeme in unserem Rechenzentrum hochfahren und innerhalb definierter SLAs den Betrieb rasch wieder aufnehmen. Die Nachfrage nach solchen Lösungen wächst kontinuierlich.
Ein weiterer wichtiger Aspekt ist die flexible Abdeckung von Lastspitzen. Bei On-Premise-Infrastrukturen müssen Unternehmen den Ressourcenbedarf oft für einen mehrjährigen Lebenszyklus kalkulieren und entsprechendes Wachstum einplanen. In dynamischen Märkten steigen die Anforderungen jedoch häufig schneller als erwartet, wodurch Kapazitätsengpässe entstehen können.
Hier setzen wir an und bieten Rechenleistung, Storage-Kapazität und weitere Services im Pay-per-Use-Modell an. Das bedeutet, der Kunde bezahlt nur für die tatsächlich genutzten Ressourcen und kann flexibel nach oben oder unten skalieren. Diese Flexibilität wird von unseren Kunden sehr geschätzt.
Unter welchen Bedingungen führen Cloud- und Managed-Services tatsächlich zu Kosteneinsparungen – und wann droht das Gegenteil?
Eine pauschale Antwort auf die Frage, ob Cloud- und Managed-Services-Lösungen zu einer Kostenoptimierung oder einer Kostenfalle führen, ist nicht möglich – beide Szenarien kommen in der Praxis vor.
Viele unserer Kunden profitieren von Kosteneinsparungen durch das Pay-per-Use-Modell. Sie müssen kein zukünftiges Wachstum auf Vorrat einplanen und keine Hardware anschaffen, die womöglich über Jahre hinweg ungenutzt bleibt. In solchen Fällen ist eine deutliche Optimierung der IT-Kosten realisierbar.
Es gibt jedoch auch Beispiele, in denen der Wechsel in die Cloud – insbesondere zu Hyperscalern – zu einer unerwarteten Kostensteigerung geführt hat. Die tatsächlichen Ausgaben können sich schnell vervielfachen, wenn das Kostenmanagement nicht konsequent betrieben wird.
Ein entscheidender Faktor ist daher das aktive Management der Cloud-Kosten. Es ist essenziell, die Ausgaben kontinuierlich zu überwachen und zu steuern. Auch im Bereich der IT-Sicherheit ergeben sich Risiken: Kommt es beispielsweise zu einem Angriff auf administrative Zugänge im Cloud-Management, können unbefugt virtuelle Maschinen bereitgestellt und für missbräuchliche Zwecke genutzt werden. Dies führt nicht nur zu erhöhten Kosten, sondern ist oft auf den ersten Blick schwer nachvollziehbar.
Trotz dieser Herausforderungen sind wir überzeugt, dass wir unseren Kunden helfen können, nachhaltig Kosten zu sparen – insbesondere im Bereich der Personalkosten, die häufig einen erheblichen Anteil am IT-Budget ausmachen. Durch den Bezug von Managed Services lassen sich nicht nur Kosten reduzieren, sondern auch Engpässe durch den anhaltenden Fachkräftemangel ausgleichen. Ein durchgängiger 24/7-Betrieb ist für viele unserer Kunden mittlerweile selbstverständlich – das klassische 5×9-Modell gehört der Vergangenheit an.
Warum wird die lokale Datenhaltung in Österreich für Unternehmen zunehmend zum entscheidenden Kriterium bei der Wahl von Cloud-Anbietern?
Für viele unserer Kunden ist die Datenhaltung in Österreich ein entscheidendes Kriterium. Gerade Unternehmen, die ihr geistiges Eigentum schützen möchten, sehen darin ein zentrales Argument gegen die Auslagerung zu internationalen Hyperscalern, insbesondere zu amerikanischen Anbietern. Die aktuelle geopolitische Lage und der Umgang mit Datenschutz auf politischer Ebene – etwa durch den amerikanischen Präsidenten – verstärken diese Bedenken zusätzlich. Wir beobachten bereits, dass erste Kunden aus der Public Cloud zurückkehren, weil ihnen der Schutz ihrer Daten in Österreich wichtiger ist als die Vorteile internationaler Cloud-Angebote.
Trotzdem gibt es nach wie vor viele Unternehmen, die sich wenig Gedanken über die Sicherheit und den Verbleib ihrer Daten machen. Aussagen wie „Wer soll schon Interesse an meinen Daten haben?“ hören wir immer noch häufig. Dies liegt oft daran, dass die notwendige Datenklassifizierung noch nicht erfolgt ist. Viele Unternehmen haben noch keinen klaren Überblick darüber, welche Daten tatsächlich kritisch sind und wo die sogenannten „Kronjuwelen“ liegen.
Es existieren mittlerweile zahlreiche Tools, die Unternehmen bei der Klassifizierung und dem Schutz ihrer Daten unterstützen. Der erste Schritt ist jedoch, sich einen Überblick zu verschaffen und die eigenen Datenbestände systematisch zu analysieren. Häufig zeigt sich dabei erst, dass durchaus sensible Informationen vorhanden sind, die für Dritte von Interesse sein könnten.
Gerade in Bereichen wie Produktion oder Forschung und Entwicklung ist das Bewusstsein für den Wert und die Schutzbedürftigkeit der eigenen Daten bereits deutlich ausgeprägter als in anderen Branchen.
Die 100%ige Datenhaltung in Österreich ist ein wesentliches Alleinstellungsmerkmal von Timewarp und einer der Hauptgründe, warum sich viele Unternehmen letztlich für uns entscheiden.
Welche Sicherheitsmaßnahmen gewährleisten wirklich wirksamen Schutz für sensible Unternehmensdaten – auch über Systemgrenzen hinweg?
Im Bereich Security spielt die Datenverschlüsselung eine zentrale Rolle. Ziel ist es, insbesondere vertrauliche Informationen so abzusichern, dass sie auch über Unternehmensgrenzen hinweg nicht lesbar sind. Neben der Verschlüsselung ist auch die Pseudonymisierung – vor allem für Test- und Entwicklungssysteme – ein wichtiger Aspekt.
Entscheidend ist, dass sensible Daten gemäß den unternehmensinternen Richtlinien, die auf einer gründlichen Datenklassifizierung basieren, verschlüsselt abgelegt werden. Dadurch bleibt der Schutz auch dann gewährleistet, wenn Daten beispielsweise in die Cloud hochgeladen oder auf externe Speichermedien wie USB-Sticks kopiert werden. Selbst im Falle eines unbefugten Zugriffs wären die Daten ohne den passenden Schlüssel nicht auslesbar und könnten mit heutiger Technologie nicht in vertretbarer Zeit entschlüsselt werden.
Trotz der Verfügbarkeit zahlreicher leistungsfähiger Lösungen und Anbieter wird das Thema Verschlüsselung in vielen Unternehmen noch zu wenig umgesetzt – obwohl dies mit überschaubarem finanziellem Aufwand realisierbar wäre. Eine häufige Hürde ist das Schlüsselmanagement: Es gibt Fälle, in denen Unternehmen ihre Daten verschlüsselt, aber anschließend den Schlüssel verloren haben, wodurch der Zugriff auf die eigenen Informationen unmöglich wurde.
Deshalb sollte besonderes Augenmerk auf ein sicheres Schlüsselmanagement gelegt werden, beispielsweise durch den Einsatz von Hardware Security Modules (HSM). Diese ermöglichen die sichere Generierung, Ablage und Verwaltung von Schlüsseln, etwa durch Verteilung auf mehrere Standorte. Aus meiner Sicht ist dies der notwendige Ansatz, um die Sicherheit sensibler Daten nachhaltig zu gewährleisten.
Wie können Unternehmen sicherstellen, dass ihre Backup-Daten wirklich nur für sie selbst zugänglich bleiben – selbst bei externer Speicherung?
Bei den heute am Markt etablierten Backup-Herstellern ist es Standard, dass die gesicherten Daten verschlüsselt werden. Das bedeutet: Kunden, die ein zusätzliches Backup-Repository in unserem Rechenzentrum nutzen und ihre Daten dort sichern, profitieren davon, dass diese Daten bei uns ausschließlich verschlüsselt abgelegt werden. Ein Zugriff auf die Daten durch uns ist somit ausgeschlossen – eine wesentliche Voraussetzung für höchste Datensicherheit.
Der Zugriff auf die Backup-Daten ist erst im Rahmen eines Restore-Prozesses möglich, der stets im Einvernehmen mit dem Kunden erfolgt. Nur der Kunde selbst kann mit seinem Schlüssel den Zugriff auf die gesicherten Daten ermöglichen und den Wiederherstellungsprozess anstoßen.
Damit ist sichergestellt, dass unsere Kunden beim Thema Backup und Datensicherheit auf der absolut sicheren Seite sind.
Wie verändert Künstliche Intelligenz aktuell das Wissensmanagement in Unternehmen – und welche Infrastruktur braucht diese Transformation?
Abgesehen von den vielfältigen AI-Funktionalitäten, die heute insbesondere im Security-Bereich zum Einsatz kommen, beobachten wir einen besonders starken Trend im Bereich Knowledge Management. Unternehmen beginnen zunehmend, ihre Informationen mithilfe von Large Language Models (LLMs) aufzubereiten und in Form von Chatbots den Mitarbeitenden zugänglich zu machen.
Dadurch entsteht die Möglichkeit, Daten aus verschiedensten Quellen – etwa aus SaaS-Services wie Confluence oder Atlassian, aus SharePoint oder von klassischen Netzlaufwerken – zusammenzuführen. Mit Hilfe von Künstlicher Intelligenz können so leistungsfähige Knowledge-Management-Systeme aufgebaut werden, die das Onboarding neuer Mitarbeitender erheblich beschleunigen und den internen Support deutlich verbessern. Beispielsweise lassen sich ITSM-Tools anbinden, sodass das System bei wiederkehrenden Fehlermeldungen automatisch auf bereits dokumentierte Lösungen zugreifen und diese unmittelbar bereitstellen kann.
Der Markt entwickelt sich in diesem Bereich rasant weiter; zahlreiche Anbieter bieten bereits ausgereifte Lösungen an – bis hin zu Telefonsupportsystemen, bei denen KI-Anwendungen Anfragen direkt am Telefon lösen. Solche Systeme sind bereits im Live-Betrieb zu erleben und beeindrucken durch ihre Effizienz.
Diese Entwicklung hat auch direkte Auswirkungen auf uns als Infrastrukturprovider: Um diese Anwendungen zu unterstützen, stellen wir leistungsfähige **GPU-Services** bereit, sodass unsere Kunden Large Language Models direkt in unserem Rechenzentrum betreiben und eigene KI-Lösungen aufbauen können.
Welche neuen Sicherheitsherausforderungen entstehen durch den Einsatz von KI-Systemen in Unternehmen – und wie lassen sich diese bewältigen?
Ein wichtiger Aspekt im Zusammenhang mit Künstlicher Intelligenz ist die enge Verzahnung mit dem Bereich Security. Mit dem zunehmenden Einsatz von KI-Anwendungen rücken auch regulatorische Vorgaben wie etwa der AI Act in den Fokus, der unter anderem die Schulung der Mitarbeitenden sowie den sicheren und verantwortungsvollen Umgang mit KI-Anwendungen regelt.
Ein zentrales Thema bleibt dabei die Datenklassifizierung in Verbindung mit einem ausgefeilten Berechtigungssystem. Gerade im Kontext von KI besteht die Gefahr, dass Mitarbeitende über KI-gestützte Systeme Zugriff auf Informationen erhalten, die ihnen im normalen Arbeitsalltag nicht zugänglich wären. Dies stellt eine erhebliche Herausforderung für die Informationssicherheit dar und erfordert zusätzliche Schutzmaßnahmen.
Welche organisatorischen und technischen Maßnahmen empfehlen Sie Unternehmen, um den sicheren und regelkonformen Einsatz von KI-Anwendungen im Arbeitsalltag zu gewährleisten?
Regulatorische Vorgaben beachten: Die Einhaltung gesetzlicher Rahmenbedingungen wie dem AI Act ist essenziell, insbesondere im Hinblick auf Mitarbeiterschulungen und die Nutzung von KI-Systemen.
Datenklassifizierung und Berechtigungen: Es ist entscheidend, sensible Daten klar zu klassifizieren und Berechtigungskonzepte so zu gestalten, dass nur autorisierte Personen Zugriff auf bestimmte Informationen erhalten.
Prozess- und Rollenklarheit: Bei der Einführung von KI-Anwendungen sollte genau definiert werden, welche Daten für welche Mitarbeitenden zugänglich sind und welche nicht. Dies betrifft sowohl die technische Umsetzung als auch die organisatorischen Prozesse.
Beispiel aus der Praxis: Wie Herr Ortner (Proalfa) anmerkt, ist es wichtig, im Vorfeld zu klären, wer Einblick in welche Arbeitsschritte und Prozessdaten erhält. Die Frage „Wer soll was sehen?“ muss eindeutig beantwortet werden, um Datenschutz und Prozesssicherheit zu gewährleisten.
Insgesamt ergeben sich durch den Einsatz von KI zusätzliche Herausforderungen im Bereich Security, die sowohl technisch als auch organisatorisch adressiert werden müssen. Ein durchdachtes Berechtigungsmanagement und klare Verantwortlichkeiten sind dabei unerlässlich.
Wie positionieren Sie sich im wachsenden KI-Markt – und welche Rolle spielt dabei die Zusammenarbeit mit spezialisierten Partnern im Vergleich zur eigenen Lösungsentwicklung?
Im Sinne des Grundsatzes „Schuster, bleib bei deinen Leisten“ konzentrieren wir uns auf die Bereitstellung der passenden Infrastruktur für KI-Anwendungen. Unser Schwerpunkt liegt darauf, die erforderliche technische Basis bereitzustellen – von leistungsfähigen Servern über GPU-Ressourcen bis hin zu hochverfügbaren Cloud-Umgebungen.
Die fachliche Beratung und Integration von KI in Geschäftsprozesse überlassen wir bewusst spezialisierten Anbietern, die in diesem Bereich über umfassende Expertise verfügen. Unternehmen wie Accenture erzielen beispielsweise bereits Milliardenumsätze mit KI-Beratung und Prozessintegration – das ist nicht unser Kerngeschäft.
Was wir jedoch sehr wohl anbieten, sind Partnerschaften mit erfahrenen KI-Anwendungsentwicklern. Gemeinsam mit diesen Partnern realisieren wir Knowledge-Management-Systeme und stellen diese als gehostete Lösung unseren Kunden zur Verfügung. Durch unser Partnernetzwerk sind wir in der Lage, ganzheitliche Lösungen aus einer Hand anzubieten und als zentraler Ansprechpartner für das Gesamtpaket zu agieren.
Wie helfen Managed Services Unternehmen dabei, den zunehmenden Fachkräftemangel zu kompensieren – und welche Vorteile ergeben sich daraus speziell für den Mittelstand?
Der Fachkräftemangel stellt für viele Unternehmen eine erhebliche Herausforderung dar. Zahlreiche Betriebe haben heute große Schwierigkeiten, qualifiziertes Fachpersonal zu finden und die geforderten Gehälter zu bezahlen. Besonders hochqualifizierte Fachkräfte sind sich ihres Marktwerts bewusst und können entsprechend hohe Vergütungen verlangen – was für mittelständische Unternehmen häufig kaum noch finanzierbar ist.
Ein bewährtes Mittel, um diesem Engpass entgegenzuwirken, ist die Auslagerung von Betriebsleistungen und der Bezug entsprechender Services. Anbieter wie wir verfügen über die Möglichkeit, Ressourcen effizient zu bündeln und dadurch Skaleneffekte zu erzielen. So sind wir in der Lage, hochqualifizierte Fachkräfte angemessen zu entlohnen, da deren Know-how mehreren Kunden gleichzeitig zugutekommt.
Für Unternehmen ergibt sich daraus eine klassische Win-Win-Situation: Sie profitieren von professionellen Dienstleistungen, ohne selbst zusätzliche Fachkräfte einstellen und finanzieren zu müssen. Unsere Erfahrung zeigt, dass der Trend klar in Richtung Managed Services geht – immer mehr Unternehmen setzen auf diese Lösung, um dem Fachkräftemangel nachhaltig zu begegnen.
Wie sieht für Sie eine ideale IT-Infrastruktur aus ?
Die ideale Infrastruktur ist für uns klar definiert: Sie läuft vollständig in unseren Rechenzentren.
Spaß beiseite: Gerade bei unseren großen Kunden, bei denen tausende Mitarbeitende auf der Plattform arbeiten, setzen wir auf Private-Cloud-Lösungen im reinen OPEX-Modell. Das bedeutet, sämtliche Komponenten wie Server, Speichersysteme und Netzwerke werden von uns beschafft, betrieben und verbleiben in unserem Anlagevermögen. Der Kunde bezieht diese Infrastruktur als Service zu einer monatlichen, transparenten und nachvollziehbaren Pauschale. Versteckte Kosten gibt es bei uns nicht – das ist heutzutage ein entscheidender Faktor für Planbarkeit und Kostensicherheit. Auch unerwartete Zusatzkosten, etwa durch erhöhtes Datenvolumen bei einem Restore, fallen bei uns nicht an.
Ein weiterer zentraler Aspekt der idealen Infrastruktur ist die Business Continuity: Die Systeme laufen in zwei räumlich getrennten Rechenzentren, die durch moderne Clustering-Mechanismen volle Redundanz gewährleisten. Sollte eines der Rechenzentren ausfallen – was bei den großen, kernneutralen Anbietern in Österreich praktisch nie vorkommt – bleibt der Betrieb dennoch ohne Unterbrechung gewährleistet. Die hohe Qualität und Zuverlässigkeit der österreichischen Rechenzentren ist hierbei ein großer Vorteil.
Darüber hinaus bieten wir unseren Kunden ein Pay-per-Use-Modell, das maximale Flexibilität ermöglicht. Unternehmen können ihre Ressourcen jederzeit bedarfsgerecht anpassen – sowohl nach oben als auch nach unten. Gerade in wirtschaftlich herausfordernden Zeiten, in denen Kosteneinsparungen und Personalreduktionen notwendig werden, ist diese Skalierbarkeit ein entscheidender Vorteil. So können Kunden nicht nur wachsen, sondern bei Bedarf auch Rechenleistung und Speicherkapazitäten reduzieren, um ihre IT-Kosten optimal zu steuern. Diese Kombination aus Transparenz, Flexibilität und Ausfallsicherheit macht unsere Infrastruktur zur idealen Lösung für Unternehmen jeder Größe.
Wie verändern aktuelle Entwicklungen rund um Künstliche Intelligenz Ihrer Einschätzung nach die IT-Infrastrukturen?
Wir befinden uns derzeit am Anfang einer grundlegenden Entwicklung im Bereich der Künstlichen Intelligenz (KI). Viele Unternehmen befinden sich aktuell in einer Orientierungsphase und prüfen sorgfältig, in welchen Bereichen KI tatsächlich sinnvoll und vor allem zuverlässig eingesetzt werden kann. Das Thema Zuverlässigkeit ist hierbei von zentraler Bedeutung, denn die bisherigen Erfahrungen mit KI-Anwendungen sind durchaus gemischt und nicht immer positiv. Insofern stehen wir noch ganz am Anfang dieser Entwicklung.
Die Art und Weise, wie Infrastrukturen aufgebaut und betrieben werden, wird sich durch den zunehmenden Einsatz von KI grundlegend verändern. Der Bedarf an Rechenkapazität steigt erheblich, was dazu führen wird, dass sich viele Unternehmen verstärkt in Richtung Hyperscaler orientieren – insbesondere jene, die bereit sind, ihre Daten bei amerikanischen Anbietern zu speichern.
Gleichzeitig ist davon auszugehen, dass auch neue Anbieter im europäischen Umfeld entstehen werden, die entsprechende Services anbieten. Insbesondere spezialisierte Nischenanbieter, die sich auf bestimmte vertikale Märkte fokussieren, werden eine wichtige Rolle spielen. Darüber hinaus werden europäische Cloudanbieter die Chance nutzen, Marktanteile von den großen internationalen Unternehmen zu gewinnen.
Mit regulatorischen Vorgaben wie dem AI Act beginnt eine neue Phase, die zusätzliche Anforderungen und Chancen mit sich bringt. Es ist zu erwarten, dass in den kommenden Jahren zahlreiche neue und sinnvolle Anwendungsfälle für KI entstehen werden, die wir heute noch gar nicht absehen können. Die Entwicklung bleibt spannend und wird die IT-Landschaft nachhaltig prägen.
Wie nachhaltig ist die Cloud – und wo liegen die größten ökologischen Herausforderungen?
Die Nutzung von Cloud-Infrastrukturen kann einen wichtigen Beitrag zur Nachhaltigkeit leisten. Einer der größten Vorteile liegt in der effizienteren Auslastung von Ressourcen: GPU-Leistungen werden mehreren Kunden gleichzeitig zur Verfügung gestellt, wodurch die vorhandene Hardware deutlich intensiver genutzt wird als bei einer isolierten Nutzung durch einzelne Unternehmen. Das führt zu einer besseren Kapazitätsauslastung und vermeidet unnötigen Ressourcenverbrauch.
Allerdings darf nicht übersehen werden, dass gerade leistungsstarke GPUs einen erheblichen Stromverbrauch verursachen. Dieser Aspekt stellt weiterhin eine ökologische Herausforderung dar und ist nicht von der Hand zu weisen.
Auf der anderen Seite gibt es zahlreiche positive Entwicklungen im Bereich der Nachhaltigkeit von Rechenzentren:
- Viele Rechenzentren sind heute verpflichtet, die entstehende Abwärme sinnvoll zu nutzen. Diese wird beispielsweise in die Fernwärme eingespeist oder zur Warmwasseraufbereitung und Beheizung eigener Räumlichkeiten verwendet.
- Der sogenannte PUE-Faktor (Power Usage Effectiveness), der das Verhältnis von insgesamt verbrauchter Energie zur tatsächlich für IT genutzten Energie misst, wird kontinuierlich gesenkt. Ziel ist es, den Energieverbrauch außerhalb der IT-Komponenten (z. B. für Kühlung und Infrastruktur) so gering wie möglich zu halten.
- Rechenzentren werden zunehmend mit grüner Energie betrieben und setzen auf innovative Technologien, um ihre Umweltbilanz weiter zu verbessern.
Unterm Strich zeigt sich eine positive Entwicklung: Die Cloud trägt durch bessere Ressourcennutzung und technologische Innovationen zur Nachhaltigkeit bei. Dennoch bleibt der hohe Stromverbrauch, insbesondere bei GPU-basierten Anwendungen, eine ökologische Herausforderung, die weiterhin Aufmerksamkeit erfordert.
Gerne möchte ich ergänzen, dass Nachhaltigkeit für unsere Kunden eine zunehmend wichtige Rolle spielt. Wir konnten bereits Projekte gewinnen, weil wir unseren Kunden transparent und nachvollziehbar nachweisen konnten, dass wir Nachhaltigkeit aktiv leben.
Unser CO₂-Fußabdruck wurde erfasst, gemäß ISO 14064-1 durch den TÜV validiert und anschließend kompensiert. Darüber hinaus haben wir einen umfassenden Nachhaltigkeitsbericht veröffentlicht. Besonders im österreichischen Markt zählen wir damit – gerade unter den kleineren Anbietern – zu den Vorreitern in diesem Bereich. Dieses Engagement wird von unseren Kunden ausdrücklich honoriert und hat bereits zu mehreren positiven Projektergebnissen geführt.
Wie wird sich die Cloud-Landschaft in den nächsten Jahren entwickeln?
Die Cloud ist gekommen, um zu bleiben – sie ist aus der heutigen IT-Landschaft nicht mehr wegzudenken. Ein klar erkennbarer Trend ist, dass die Cloud immer näher an die Nutzer heranrückt. Dies zeigt sich beispielsweise daran, dass Microsoft eine neue Region in Österreich eröffnet hat, um die Latenzzeiten zu reduzieren und die Cloud-Dienste technisch wie geografisch näher an die Anwender zu bringen. Diese Entwicklung wird sich fortsetzen, da sie sowohl aus technischen als auch aus wirtschaftlichen Gründen sinnvoll ist.
Wir beobachten zudem, dass international tätige Kunden zunehmend auch Rechenzentrumsleistungen in anderen Regionen, wie etwa Amerika, nachfragen. Um diesen Bedarf zu decken, eröffnen wir gezielt neue Standorte und unterstützen unsere Kunden weltweit.
Ein weiterer deutlicher Trend ist die zunehmende Auslagerung der Betriebsverantwortung. Unternehmen möchten insbesondere den Betrieb von Standard-IT-Leistungen (Commodity-Betrieb) an spezialisierte Dienstleister abgeben, um sich auf ihre Kernkompetenzen zu konzentrieren. Dieser Trend wird sich weiter verstärken.
On-Premise-Systeme werden jedoch weiterhin ihre Berechtigung haben – insbesondere in Bereichen wie der industriellen Fertigung, wo hochzuverlässige und teilweise echtzeitfähige Systeme erforderlich sind und eine Abhängigkeit von externen Internetanbindungen nicht akzeptabel ist. Hier bleiben lokale Infrastrukturen unverzichtbar.
Hybrid-Cloud-Modelle werden daher weiterhin eine wichtige Rolle spielen. Gleichzeitig wird die Nutzung von Multicloud-Ansätzen weiter zunehmen, da immer mehr Software-as-a-Service-Anbieter auf den Markt kommen und Unternehmen gezielt die für sie besten Cloud-Services im Sinne eines Best-of-Breed-Ansatzes auswählen. Dabei bleibt es entscheidend, die steigende Komplexität beherrschbar zu halten, das Management und Monitoring sicherzustellen und die Security-Anforderungen weiterhin zu erfüllen.
Den vollständigen Roundtable „Der Weg zur optimalen Cloud-Strategie“ gibt es hier zum nachsehen.

Be the first to comment