„Die richtige Cloud-Strategie beginnt mit maximaler Transparenz und Kontrolle.“

Die Cloud ist der Schlüssel zur digitalen Transformation – doch welche Strategie passt zu welchem Unternehmen? Marcel Naumann, Director of Sales bei Nutanix, hat im Rahmen eines ITWelt.at-Roundtables über Hybrid Cloud, KI, Sicherheit und die Zukunft der IT-Infrastrukturen gesprochen. [...]

Marcel Naumann, Director of Sales bei Nutanix. (c) timeline/Rudi Handl
Marcel Naumann, Director of Sales bei Nutanix. (c) timeline/Rudi Handl

Cloud-Technologien sind längst zum Herzstück moderner IT-Landschaften avanciert. Doch gerade für mittelständische Unternehmen wirft die Integration von Hybrid- und Multicloud-Strategien viele Fragen auf: Wie gelingt der Spagat zwischen Sicherheit, Flexibilität und Kostenkontrolle? Welchen Stellenwert haben digitale Souveränität und Nachhaltigkeit? Und wie lässt sich die kontinuierliche Innovationsdynamik – nicht zuletzt durch Künstliche Intelligenz – erfolgreich in bestehende Strukturen einbinden? Marcel Naumann, Director of Sales bei Nutanix, hat im Rahmen eines Roundtables von ITWELT.at die zentralen Herausforderungen und Erfolgsfaktoren für eine zukunftssichere Cloud-Strategie beleuchtet.

Wie definieren Sie eine Hybrid Multicloud-Strategie?

Wir beginnen Kundengespräche stets mit einer klaren Definition, um ein gemeinsames Verständnis zu schaffen. Daher fragen wir unsere Kunden zu Beginn: „Was verstehen Sie unter Cloud?“ Häufig hören wir Aussagen wie „Wir verfolgen einen Cloud-First-Ansatz.“ An dieser Stelle hinterfragen wir genauer: Bedeutet Cloud-First, dass neue Applikationen direkt in der Cloud bereitgestellt werden? Oder bedeutet es, dass sämtliche Applikationen in die Cloud migriert werden sollen – also ein Cloud-Only-Ansatz? Eine präzise Definition zu Beginn ist daher unerlässlich.

Für mich bedeutet Hybrid Cloud, dass ein On-Premise-Rechenzentrum als Private Cloud betrieben wird und zusätzlich eine Umgebung aus der Public Cloud genutzt wird. Von einer Multicloud spricht man, wenn mehrere Public-Cloud-Anbieter parallel eingebunden werden.

Ein wichtiger Aspekt ist zudem die Portabilität: Kunden legen großen Wert darauf, wie Daten und Applikationen zwischen den verschiedenen Umgebungen verschoben werden können – und wie eine Rückführung möglich ist. Daher gehört für mich zu jeder Cloud-Strategie auch eine Cloud-Exit-Strategie.

Gerade vor dem Hintergrund aktueller geopolitischer Entwicklungen sind diese Überlegungen besonders relevant. Auf diese Aspekte werden wir im weiteren Verlauf noch eingehen. Insgesamt sind dies zentrale Punkte, die bei der Definition und Umsetzung von Cloud-Strategien eine entscheidende Rolle spielen.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Welche zentralen Faktoren treiben Unternehmen heute in die Cloud?

Für mich lassen sich die Beweggründe für den Einsatz von Cloud-Technologien grundsätzlich in zwei Kategorien einteilen:

IT-getriebene Beweggründe

Zum einen gibt es die Gründe, die aus der IT heraus gesteuert werden. Hierzu zählen Themen wie:

  • Skalierbarkeit: Die Möglichkeit, IT-Ressourcen flexibel und bedarfsgerecht zu erweitern oder zu reduzieren.
  • Reduzierung der Komplexität: Durch die Nutzung von Cloud-Services können IT-Infrastrukturen vereinfacht und der Verwaltungsaufwand verringert werden.
  • Disaster Recovery: Cloud-Lösungen bieten effiziente Szenarien für Backup und Wiederherstellung im Katastrophenfall.

Business-getriebene Beweggründe

Die andere Kategorie umfasst die Beweggründe, die vom Business getrieben werden. Im Kontext von Business-IT-Alignment stellt sich die Frage, ob die IT tatsächlich die Anforderungen des Geschäfts erfüllen kann – insbesondere in einer Zeit, in der sich Unternehmen stetig im Wandel befinden.

Ein Beispiel aus der Automobilbranche zeigt, dass Hersteller in Deutschland heute nicht mehr nur physische Teile oder Hardware produzieren. Sie bieten ihren Endkunden zunehmend digitale Services an. Auch Automobilzulieferer tragen dazu bei, dass Konzepte wie „Software Defined Car“ in der heutigen Form funktionieren. Dies führt zu neuen Anforderungen und Herausforderungen für die IT.

Hinzu kommt die steigende Komplexität durch das Thema Künstliche Intelligenz (AI). Das Interesse an AI-Anwendungen wächst, und das Business fordert deren Integration. Studien zeigen, dass Unternehmen erwarten, innerhalb der nächsten zwei bis drei Jahre trotz hoher Kosten von AI-Anwendungen zu profitieren. Dennoch ist die IT in vielen Fällen noch nicht ausreichend darauf vorbereitet.

Wie verändert die Cloud die Agilität von Unternehmen – und welche Voraussetzungen müssen für ihren erfolgreichen Einsatz erfüllt sein?

Sowohl die neuen, vom Business geforderten Herausforderungen als auch innovative Technologien wie AI führen dazu, dass die Cloud eine immer wichtigere Rolle spielt. Die Cloud ermöglicht es, schnell und flexibel auf neue Anforderungen zu reagieren. Besonders in einem Hybrid-Cloud-Szenario – bei dem das eigene Rechenzentrum durch zusätzliche Ressourcen aus der Cloud ergänzt wird – sind Unternehmen gut aufgestellt. Voraussetzung dafür ist jedoch, dass Management und Sicherheit stets im Fokus bleiben.

Marcel Naumann, Director of Sales bei Nutanix. (c) timeline/Rudi Handl

Wie können mittelständische Unternehmen ihre IT-Landschaft ‚Cloud-ready‘ machen – und welche strategischen Schritte sind nötig, um historisch gewachsene Komplexität zu beherrschen?

Die Frage nach der Cloud-Readiness stellt sich insbesondere für mittelständische Unternehmen immer häufiger – nicht zuletzt vor dem Hintergrund des Fachkräftemangels. In vielen Fällen stehen nur begrenzte personelle Ressourcen zur Verfügung, während die Anforderungen an die IT-Abteilung stetig steigen. Unsere Gespräche mit Kunden zeigen, dass die Komplexität der bestehenden IT-Landschaften zu Beginn oft sehr hoch ist, da die IT zahlreiche Aufgaben erfüllen muss, um den Anforderungen des Business gerecht zu werden.

Häufig handelt es sich um historisch gewachsene Infrastrukturen, die meist als klassisches 3-Tier-Modell aufgebaut sind – bestehend aus Servern, Storage und Netzwerk. Diese Komponenten müssen über ihren gesamten Lebenszyklus hinweg professionell gemanagt werden. In der zentralen IT wird darauf meist ein Hypervisor betrieben, um virtuelle Maschinen bereitzustellen. Zunehmend gewinnt jedoch auch das Thema Containerisierung an Bedeutung, sodass zusätzlich Container-Infrastrukturen bereitgestellt werden müssen. Hinzu kommen Edge-Standorte und Remote-Office/Branch-Office (ROBO)-Umgebungen. Wird die Cloud als weiteres Silo eingeführt, ohne die vorhandene Komplexität zu berücksichtigen, kann dies die Situation für mittelständische Unternehmen schnell unübersichtlich machen.

Bei Enterprise-Kunden steigt die Komplexität weiter, da verschiedene Abteilungen für unterschiedliche Bereiche verantwortlich sind und eine enge Abstimmung erforderlich ist.

Unser Ansatz besteht darin, zunächst gemeinsam mit dem Kunden das eigene Rechenzentrum zu analysieren: Welche Komponenten sind bereits vorhanden? Worauf kann aufgebaut werden? Es kann sinnvoll sein, das eigene Rechenzentrum zunächst „Cloud Ready“ zu machen – also die Komplexität zu reduzieren, gegebenenfalls in Zusammenarbeit mit Service Providern und in unterschiedlichen Betriebsmodellen. Von diesem Ausgangspunkt aus lässt sich dann der Weg in Richtung Hybrid Cloud oder Multicloud gestalten.

Unsere Erfahrung zeigt: Sobald die Komplexität im eigenen Rechenzentrum reduziert und eine Private Cloud etabliert ist, lassen sich viele Herausforderungen für unsere Kunden bereits lösen. Mit einer Plattform wie Nutanix, die sowohl virtuelle Maschinen, Container als auch Cloud-Services integriert, können Unternehmen die Komplexität und den Aufwand in ihrer IT deutlich verringern.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Wie können Unternehmen ihre IT-Kosten in hybriden Cloud-Umgebungen wirklich optimieren – und welche Fallstricke gilt es dabei zu vermeiden?

Ein zentraler Aspekt bei der Optimierung von IT-Kosten ist zunächst, für Kostentransparenz zu sorgen. Unternehmen benötigen geeignete Tools, um nachvollziehen zu können, wo und in welchem Umfang Kosten entstehen. Nur so lassen sich beispielsweise Überdimensionierungen (Oversizing) vermeiden – etwa wenn Entwickler größere Umgebungen bereitstellen, die anschließend ungenutzt bleiben und weiterhin Kosten verursachen. Ohne diese Transparenz ist eine gezielte Kostenoptimierung kaum möglich.

Es ist ein weitverbreiteter Irrglaube, dass die Nutzung der Public Cloud für jedes Unternehmen automatisch günstiger ist. Im Gegenteil: Viele Unternehmen stellen nach der Migration fest, dass die Kosten für Public-Cloud-Services deutlich höher ausfallen als erwartet. Für bestimmte Anwendungsfälle – wie etwa bei Einzelhändlern, die während saisonaler Spitzenzeiten kurzfristig zusätzliche Ressourcen benötigen – kann die Cloud durchaus wirtschaftliche Vorteile bieten. Hier ermöglicht eine Hybrid-Cloud-Strategie, das eigene Rechenzentrum flexibel um Cloud-Ressourcen zu erweitern und Lastspitzen effizient abzufedern.

Letztlich muss die Cloud-Strategie individuell auf das jeweilige Unternehmen zugeschnitten sein. Wichtige Fragen sind:

  • Welche Ziele verfolgt das Unternehmen mit der Cloud-Nutzung?
  • Welche Applikationen profitieren tatsächlich von einer Cloud-Umgebung?
  • Welche Anwendungen müssen aus Gründen der Compliance, Regulierung oder Datenhoheit weiterhin On-Premise betrieben werden?

Einheitliches und konsistentes Management über Public Cloud, Private Cloud und Edge-Umgebungen hinweg ist entscheidend, um zusätzliche Komplexität und damit verbundene Kosten zu vermeiden. Die reine Betrachtung der Anfangsinvestition reicht dabei nicht aus. Vielmehr ist eine umfassende Total Cost of Ownership (TCO)-Analyse erforderlich, um alle laufenden und versteckten Kosten zu identifizieren und zu bewerten.

Abschließend gilt: Nur mit einer klaren Strategie, transparenten Kostenstrukturen und einem konsistenten Management lassen sich die Potenziale der Cloud optimal und wirtschaftlich nutzen.

In der Praxis treffen wir häufig auf Kunden, die derzeit überwiegend im On-Premise-Bereich arbeiten. Unser Ansatz besteht darin, diesen Kunden die Möglichkeit zu bieten, Cloud-Services mit denselben Tools bereitzustellen und zu nutzen, mit denen sie bereits vertraut sind. Das bedeutet, dass die Kunden ihre bestehenden Management-Tools weiterhin einsetzen können – entweder eigenständig im eigenen Rechenzentrum oder, falls gewünscht, mit zusätzlicher Betriebsunterstützung durch uns.

Marcel Naumann, Director of Sales bei Nutanix. (c) timeline/Rudi Handl

Wie können Unternehmen in Zeiten geopolitischer Unsicherheiten ihre digitale Souveränität wahren – insbesondere beim Cloud-Einsatz mit sensiblen Daten?

Digitale Souveränität gewinnt angesichts der aktuellen geopolitischen Entwicklungen zunehmend an Bedeutung. Insbesondere beim Umgang mit sensiblen Unternehmensdaten ist es entscheidend, sorgfältig abzuwägen, welche Daten in eine Public Cloud ausgelagert werden und welche weiterhin im eigenen Rechenzentrum verbleiben sollten.

Im Kern geht es bei Datenhoheit um die Kontrolle über die eigenen Daten. Unternehmen müssen sicherstellen, dass sie jederzeit bestimmen können, wo ihre Daten gespeichert werden und wie der Zugriff darauf geregelt ist. Ein Verlust dieser Kontrolle kann schwerwiegende Folgen haben – beispielsweise, wenn ein Cloud-Anbieter plötzlich die Kosten drastisch erhöht oder der Zugriff auf die Daten eingeschränkt wird.

Ein anschauliches Beispiel ist der private Umgang mit Fotos: Niemand möchte seine persönlichen Bilder in eine Cloud laden, ohne die Gewissheit zu haben, diese jederzeit wieder vollständig und unverändert zurückholen zu können. Ähnliche Überlegungen gelten für Unternehmensdaten, weshalb das Thema Exit-Strategie eine zentrale Rolle spielt. Es muss gewährleistet sein, dass Daten problemlos migriert oder zurückgeholt werden können, ohne von proprietären Formaten oder restriktiven Vertragsbedingungen abhängig zu sein.

Auch der Standort der Daten ist ein entscheidender Faktor – insbesondere in Deutschland, wo häufig gefordert wird, dass sensible Daten das Land nicht verlassen. Neben der digitalen Kontrolle ist zudem die physische Sicherheit relevant: Wer hat tatsächlich Zugang zu den Rechenzentren, in denen die Daten gespeichert werden?

Ein weiterer wichtiger Punkt ist die vertragliche Absicherung. Unternehmen sollten genau prüfen, welche Regelungen im Vertrag mit dem Cloud-Anbieter festgelegt sind, insbesondere hinsichtlich Datenzugriff, Datenrückführung und Kostenstrukturen.

Zusammenfassend lässt sich festhalten: Datenhoheit und digitale Souveränität sind zentrale Themen, die bei der Entwicklung und Umsetzung einer Cloud-Strategie höchste Priorität genießen sollten.

Wie können Unternehmen beim Einsatz von Künstlicher Intelligenz in der Cloud ihre digitale Souveränität wahren – und welche Schutzmechanismen sind essenziell, um sensible Daten sicher zu halten?

Digitale Souveränität bedeutet nicht zwangsläufig, dass innovative Technologien wie Künstliche Intelligenz (AI) ausschließlich in der Public Cloud genutzt werden müssen. Unternehmen haben die Möglichkeit, AI-Lösungen auch im eigenen Rechenzentrum auf derselben Plattform zu betreiben und so die volle Kontrolle über ihre sensiblen Daten zu behalten.

Entscheiden sich Unternehmen dennoch für den Weg in die Public Cloud, stehen verschiedene Schutzmechanismen zur Verfügung, um die Sicherheit der Daten zu gewährleisten. Dazu zählen insbesondere:

  • Verschlüsselung (Encryption): Sensible Daten werden durch moderne Verschlüsselungsverfahren geschützt, sowohl während der Übertragung als auch bei der Speicherung.
  • Zugriffsregelungen: Es können detaillierte Berechtigungen definiert werden, um genau festzulegen, wer Zugriff auf welche Daten hat.
  • Weitere Sicherheitsmaßnahmen: Ergänzende Richtlinien und technische Lösungen sorgen dafür, dass Daten auch in der Cloud umfassend geschützt sind.

Unabhängig vom gewählten Betriebsmodell bleibt es jedoch essenziell, dass sich jedes Unternehmen der Bedeutung und Sensibilität seiner Daten bewusst ist. Nur so können fundierte Entscheidungen darüber getroffen werden, wie und wo diese Daten verarbeitet und gespeichert werden sollen. Die Verantwortung für den Schutz und die Kontrolle der eigenen Daten liegt letztlich immer beim Unternehmen selbst.

Marcel Naumann, Director of Sales bei Nutanix. (c) timeline/Rudi Handl

Wie gelingt es Unternehmen, beim Umstieg auf Cloud-Modelle ein durchgängiges Sicherheitsniveau über alle IT-Umgebungen hinweg zu gewährleisten?

Mit der Einführung neuer Cloud-Modelle kann die Komplexität der IT-Landschaft zunehmen. Entscheidend ist daher, ein ganzheitliches Sicherheitskonzept zu etablieren, das alle Bereiche abdeckt – vom eigenen Rechenzentrum über die Public Cloud bis hin zur Hybrid Cloud. Dabei ist es besonders wichtig, dass bestehende Sicherheitsregeln, wie beispielsweise Netzwerkregeln, auch bei der Migration von On-Premise in die Cloud weiterhin gelten und konsequent umgesetzt werden.

Ein zentraler Ansatzpunkt ist die Netzwerksicherheit, insbesondere durch den Einsatz von Microsegmentation. Diese ermöglicht es, Angriffe frühzeitig zu erkennen und unmittelbar zu isolieren – sowohl im eigenen Rechenzentrum als auch in der Public Cloud. Durch ein umfassendes und integriertes Sicherheitskonzept lassen sich die Herausforderungen der zunehmenden Komplexität deutlich besser bewältigen und das Schutzniveau nachhaltig erhöhen.

Welche Rolle spielt On-Premise-Infrastruktur im Zeitalter der Cloud – besonders dort, wo Millisekunden entscheiden?

Es gibt Applikationen, die unmittelbar am Ort des Geschehens ausgeführt werden müssen – insbesondere im Produktionsumfeld. In solchen Fällen sprechen wir vom Edge Computing. Ein Beispiel: Erkennt eine Maschine in der Produktion eine Gefahrensituation – etwa, dass sich ein Arm im Gefahrenbereich befindet –, muss sie sofort reagieren und den Betrieb stoppen. Würde die Verarbeitung dieser Information erst über die Cloud erfolgen, wäre die Latenz zu hoch und die Reaktion käme sicherheitstechnisch zu spät.

Deshalb benötigen viele Kunden weiterhin eine On-Premise-Infrastruktur am Edge. Es ist wichtig, sich dieser Komplexität bewusst zu sein und zu berücksichtigen, dass nicht alle Applikationen automatisch in die Public Cloud ausgelagert werden können. Die Edge-Infrastruktur muss in jede IT-Strategie und ins Management einbezogen werden, um eine sichere und effiziente Betriebsumgebung zu gewährleisten.

Wie verändert Künstliche Intelligenz die Cloud-Strategien von Unternehmen – und welche Fallstricke gilt es bei der Integration zu beachten?

Künstliche Intelligenz zählt aktuell zu den wichtigsten Treibern für Unternehmen, ihre Cloud-Strategien zu intensivieren und verstärkt Cloud-Technologien einzusetzen. Bereits einfache Anwendungsfälle wie Chatbots zeigen, welchen Mehrwert AI bieten kann: Beispielsweise können Einzelhändler durch den Einsatz moderner Chatbots auf ihrer Website Kundenanfragen schneller und effizienter bearbeiten. Die Qualität dieser Chatbots hat in den letzten Jahren erheblich zugenommen – häufig ist für Nutzer kaum noch erkennbar, ob sie mit einem Menschen oder einem Bot kommunizieren. Dadurch sparen Unternehmen Zeit, reduzieren Komplexität und senken den operativen Aufwand.

AI ist somit ein klarer Treiber für Innovation und Effizienzsteigerung. Viele Unternehmen erwarten von AI-Anwendungen eine schnelle Rendite auf ihre Investitionen. Gleichzeitig zeigt sich jedoch auch, dass die Einführung und der Betrieb von AI-Lösungen mit Herausforderungen verbunden sind: Laut aktuellen Umfragen sehen 98% der IT-Verantwortlichen Schwierigkeiten darin, eigene AI-Anwendungen zuverlässig in den laufenden Online-Betrieb zu integrieren. Hierbei spielt die Komplexität der Integration eine zentrale Rolle.

Um diesen Herausforderungen zu begegnen, ist es entscheidend, AI nicht als isoliertes Silo zu betrachten, sondern als integralen Bestandteil einer ganzheitlichen Plattformstrategie. AI-Anwendungen sollten aus einer zentralen Plattform heraus entwickelt, bereitgestellt und betrieben werden. Besonders im Kontext der Hybrid Cloud bietet dies die Möglichkeit, AI-Lösungen flexibel mit bestehenden On-Premise-Applikationen zu verknüpfen und so Synergien zu schaffen.

Ein weiteres Beispiel für den Mehrwert von AI findet sich im Gesundheitswesen: Ärzte verbringen einen erheblichen Teil ihrer Zeit mit administrativen Aufgaben wie dem Verfassen von Arztbriefen. AI-basierte Assistenzsysteme können diesen Prozess erheblich erleichtern, indem sie Dokumentationen automatisieren oder unterstützen. So bleibt mehr Zeit für die direkte Interaktion zwischen Arzt und Patient – ein klarer Vorteil für die Versorgungsqualität.

Insgesamt ist AI ein hochdynamisches und komplexes Thema, das Unternehmen vielfältige Chancen bietet und die Weiterentwicklung moderner Cloud-Strategien maßgeblich beeinflusst.

Ein häufiges Problem im Umgang mit Künstlicher Intelligenz ist die Geschwindigkeit, mit der neue Technologien im Unternehmen eingeführt und genutzt werden sollen. Insbesondere das Business oder Endanwender sind oftmals sehr schnell darin, neue kommerzielle AI-Anwendungen einzusetzen. Dies birgt die Gefahr, dass – ähnlich wie früher bei der Cloud – sogenannte Schatten-IT entsteht, wenn Lösungen außerhalb der offiziellen IT-Strukturen genutzt werden.

Gerade deshalb ist es entscheidend, dass die IT-Abteilung mit dieser Dynamik Schritt hält und entsprechende Lösungen frühzeitig intern bereitstellt. Ein Beispiel aus der Praxis ist der Einsatz von Tools wie Copilot innerhalb des Unternehmens. Dadurch wird sichergestellt, dass sensible Daten im eigenen Unternehmen verbleiben und nicht unkontrolliert an externe AI-Dienste weitergegeben werden.

Im Vertrieb bedeutet dies beispielsweise, dass Mitarbeitende Kundendaten nicht in externe AI-Anwendungen eingeben, sondern interne Lösungen für Analysen und Auswertungen nutzen. So wird der Schutz sensibler Informationen gewährleistet und gleichzeitig die Innovationskraft des Unternehmens gestärkt.

Zusammenfassend lässt sich festhalten: Die IT muss heute in der Lage sein, rasch auf die Anforderungen des Business zu reagieren und sichere, unternehmensinterne AI-Lösungen bereitzustellen. Nur so kann AI als echter Business-Treiber genutzt und das Risiko von Schatten-IT und Datenabfluss effektiv minimiert werden.

Wie können Unternehmen den Fachkräftemangel in der IT bewältigen – und welche Rolle spielen Cloud-Technologien bei der Personalgewinnung und -bindung?

Der Fachkräftemangel stellt insbesondere für mittelständische Unternehmen eine erhebliche Herausforderung dar. Ein Ansatz zur Bewältigung dieses Problems ist die gezielte Auslagerung von Betriebsaufgaben. Ebenso wichtig ist es, die Komplexität und den Aufwand im eigenen Rechenzentrum zu reduzieren und das Management zu vereinfachen. Dadurch können die vorhandenen Mitarbeiter entlastet und für innovative Projekte eingesetzt werden – beispielsweise durch die Integration zusätzlicher Cloud-Lösungen im Rahmen eines Hybrid-Cloud-Szenarios oder durch gezielte Umschulungen.

Es ist essenziell, dass sowohl die Mitarbeitenden als auch die IT-Abteilungen der Unternehmen am Markt relevant bleiben. Fortlaufende Weiterbildung und die Bereitschaft, neue Technologien wie Cloud-Services und Künstliche Intelligenz zu nutzen, sind dabei entscheidend. Besonders für junge Talente sind Unternehmen attraktiv, die bereits in ihren Stellenausschreibungen moderne Cloud- und AI-Strategien hervorheben. Dies bietet Bewerberinnen und Bewerbern die Möglichkeit, wertvolles Know-how für ihre eigene Karriere zu erwerben – Kompetenzen im Bereich Cloud-Computing sind mittlerweile ein Pluspunkt im Lebenslauf.

Wie sieht für Sie die ideale IT-Infrastruktur im Mittelstand aus – und worauf kommt es an, damit Unternehmen maximale Flexibilität, Standardisierung und Kontrolle über ihre Daten und Cloud-Modelle erhalten?

Bevor wir über die ideale Infrastruktur für mittelständische Unternehmen sprechen, ist es essenziell, die individuellen Anforderungen jedes einzelnen Kunden genau zu analysieren. Nur so lässt sich die passende Infrastruktur gezielt auswählen und auf die jeweiligen Ziele und Bedürfnisse abstimmen.

Dabei ist es von zentraler Bedeutung, eine Lösung zu schaffen, die sowohl einen hohen Standardisierungsgrad als auch maximale Flexibilität bietet. Ziel ist es, den Kunden eine echte „Freedom of Choice“ hinsichtlich ihrer gesamten Infrastruktur zu ermöglichen.

Ein bewährter Ansatz besteht darin, das eigene Rechenzentrum zunächst „Cloud Ready“ zu machen und als Private Cloud zu betreiben. Aufbauend darauf empfiehlt sich der schrittweise Übergang in eine Hybrid-Cloud-Umgebung. Dieses Modell bietet maximale Flexibilität, da Workloads bei Bedarf problemlos zwischen den verschiedenen Umgebungen verschoben oder zurückgeholt werden können.

Im Multicloud-Szenario bleiben wichtige Aspekte wie Datenhoheit und digitale Souveränität weiterhin gewährleistet. Gleichzeitig sorgt ein durchgängiges Multicloud-Management für optimale Steuerung und Kontrolle über alle eingesetzten Cloud-Plattformen hinweg.

Die optimale Infrastruktur vereint somit folgende Eigenschaften:

  • Hoher Standardisierungsgrad als Plattform
  • Maximale Flexibilität zur Unterstützung individueller Transformationsprozesse
  • Sicherstellung von Datenhoheit und -souveränität
  • Effizientes Multicloud-Management
  • Freiheit bei der Wahl und Nutzung unterschiedlicher Cloud-Modelle

Wenn eine Infrastruktur diese Anforderungen erfüllt, bietet sie die bestmögliche Unterstützung für die digitale Transformation mittelständischer Unternehmen.

Marcel Naumann, Director of Sales bei Nutanix. (c) timeline/Rudi Handl

Wie schätzen Sie die zukünftige Rolle der Künstlichen Intelligenz in Wirtschaft und Gesellschaft ein – und wo sehen Sie aktuell die größten Chancen und Herausforderungen auf dem Weg in eine zunehmend von AI geprägte Zukunft?

Die Entwicklung der Künstlichen Intelligenz befindet sich weiterhin in einer sehr frühen Phase, betrachtet man die Geschwindigkeit und Dynamik aktueller Innovationszyklen. Die rasanten Fortschritte und die stetige Verbesserung der Leistungsfähigkeit in den letzten Jahren verdeutlichen eindrucksvoll, wie schnell sich AI-Technologien weiterentwickeln.

Bemerkenswert ist dabei, dass selbst führende AI-Anbieter noch nicht in allen Details zu verstehen scheinen, wie ihre eigenen Algorithmen im Innersten funktionieren. Die kontinuierliche Analyse und das Bestreben, die eigenen Modelle besser zu durchdringen, sind zentrale Bestandteile der laufenden Forschung und Entwicklung. Dies unterstreicht, wie komplex und teilweise undurchschaubar moderne KI-Systeme inzwischen geworden sind.

Gerade in Deutschland beobachten wir aktuell, dass Unternehmen erste Anwendungsfälle identifizieren, erproben und etablieren. Die gesammelten Erfahrungen sind wertvoll, doch der tatsächliche Einfluss, den Künstliche Intelligenz auf Wirtschaft und Gesellschaft haben wird, ist heute noch nicht vollständig absehbar. Die Bandbreite der möglichen Auswirkungen reicht von äußerst positiven, innovativen Use Cases bis hin zu kritischen Szenarien, die in gesellschaftlichen Debatten immer wieder thematisiert werden.

Letztlich bleibt festzuhalten: Der wahre Impact von Künstlicher Intelligenz ist derzeit noch schwer greifbar. Wir stehen erst am Anfang dieser Entwicklung und werden in den kommenden Jahren erleben, wie AI unser Leben und Arbeiten nachhaltig verändern wird – mit allen Chancen und Herausforderungen, die damit einhergehen.

Welchen Beitrag können Cloud-Technologien und moderne IT-Infrastrukturen zur Nachhaltigkeit leisten – und wie begegnen Sie dabei dem wachsenden Interesse von Unternehmen an energieeffizienten und ressourcenschonenden Lösungen?

Künstliche Intelligenz (AI) allein wird das Thema Nachhaltigkeit nicht lösen – im Gegenteil, AI-Anwendungen erfordern oftmals einen erhöhten Energiebedarf. Dennoch können innovative Lösungen im Bereich AI künftig zur Förderung nachhaltiger Prozesse beitragen.

Im Gegensatz dazu bietet die Cloud bereits heute erhebliche Potenziale für mehr Nachhaltigkeit. Wenn Unternehmen Anwendungen in die Cloud verlagern, profitieren sie von den umfassenden Nachhaltigkeitsmaßnahmen der Cloud-Provider und Hosting-Anbieter. Diese verfügen über deutlich größere Möglichkeiten, energieeffiziente und nachhaltige Rechenzentren zu betreiben – sei es durch den Einsatz erneuerbarer Energien, optimierte Kühlung oder eine effizientere Auslastung der Infrastruktur. Für viele Unternehmen ist es aus Kostengründen oder aufgrund fehlender Skaleneffekte kaum möglich, ähnliche Standards im eigenen Rechenzentrum zu erreichen. Aus Sicht der Nachhaltigkeit sind daher bestimmte Workloads in der Cloud oftmals besser aufgehoben.

Auch im eigenen Rechenzentrum besteht jedoch erhebliches Optimierungspotenzial. Durch die Reduzierung von Komplexität in der IT-Infrastruktur – beispielsweise durch den Einsatz von Hyperconverged-Lösungen – lassen sich signifikante Energieeinsparungen erzielen. In Projekten mit unseren Kunden konnten wir durchschnittlich eine Reduzierung des Energieverbrauchs um rund 27% beobachten. Dies zeigt, dass auch im On-Premise-Bereich noch ungenutzte Potenziale für mehr Nachhaltigkeit vorhanden sind, die durch gezielte Maßnahmen gehoben werden können.

Nachhaltigkeit ist ein Thema, das bei unseren Kunden auf großes Interesse stößt. Eine kleine Anekdote aus meinem Vertriebsalltag verdeutlicht dies: Während klassische Vertriebsgespräche meist im kleinen Rahmen – etwa im direkten Austausch mit einzelnen Kunden oder in Meetings mit wenigen Teilnehmern – stattfinden, hat das Thema Sustainability eine deutlich größere Resonanz erzeugt. Bei einem Automobilzulieferer, mit dem wir zusammengearbeitet haben, konnten wir durch gezielte Analysen aufzeigen, welchen Beitrag die von uns bereitgestellte Infrastruktur zur Nachhaltigkeit geleistet hat. Das Ergebnis: Plötzlich nahmen über 100 Mitarbeitende des Kunden an einem Webcast teil, um mehr über die Ergebnisse zu erfahren und gezielt nachzufragen. Das zeigt deutlich, wie groß das Interesse an nachhaltigen IT-Lösungen ist und dass viele Unternehmen aktiv in diese Richtung gehen möchten.

Zum Abschluss: Wie finden Unternehmen die richtige Cloud-Strategie zwischen Standardisierung und maximaler Flexibilität?

Die Cloud bleibt der zentrale Trend in der IT – ob sich daraus für einzelne Unternehmen eine Multicloud-Strategie ergibt, hängt von den individuellen Anforderungen ab. Für viele Kunden ist Multicloud sinnvoll, für andere weniger. Entscheidend ist, dass die Lösung optimal auf die Bedürfnisse des jeweiligen Unternehmens zugeschnitten ist.

Unternehmen müssen sich heute maximal flexibel aufstellen, um ihre bestehende IT-Landschaft mit möglichst geringer Komplexität effizient betreiben zu können. Gleichzeitig gilt es, Innovationen am Markt – insbesondere durch Künstliche Intelligenz und neue Cloud-Services – aktiv zu nutzen.

Das Prinzip der **Freedom of Choice** rückt dabei in den Vordergrund: Unternehmen sollten frei entscheiden können, welche Applikationen mit welchen Services an welchem Standort betrieben werden, um Innovationsfähigkeit und Wettbewerbsfähigkeit zu sichern.

Um diese Flexibilität zu gewährleisten, ist es unerlässlich, die Infrastruktur so zu gestalten, dass sie:

  • maximale Flexibilität bietet,
  • auf einer standardisierten Plattform basiert,
  • ein einfaches und einheitliches Management ermöglicht,
  • sowie ein durchgängiges, integriertes Sicherheitskonzept sicherstellt.

Nur wenn diese Voraussetzungen erfüllt sind, können Unternehmen die Vorteile moderner IT-Landschaften voll ausschöpfen, ohne an Komplexität oder Sicherheit einzubüßen.

Den vollständigen Roundtable „Der Weg zur optimalen Cloud-Strategie“ gibt es hier zum nachsehen.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*