IT-Trends des Jahres 2014

Welcher Trend wird das IT-Jahr 2014 prägen? Heiße Kandidaten sind laut Silver Peak nach wie vor Cloud Computing und die Virtualisierung von Servern sowie Speicher- und Netzwerk-Ressourcen. Doch mit Software Defined Networking, kurz SDN, stellt David Hughes auch ein neues "Hype-Thema" auf den Prüfstand. Der Gründer und CEO von Silver Peak hat einen Blick in die Kristallkugel geworfen und zeigt, wohin die Reise im kommenden Jahr geht. [...]

1. Eine Frage der Performance: Die Cloud braucht WAN Optimization
Bei der Implementierung von Cloud-Computing-Services spielt die Performance der Internet- und WAN-Verbindungen eine wichtige Rolle, auch wenn das viele Anwender übersehen. Denn sie entscheidet darüber, wie sich der Zugriff auf Dienste, die ein Cloud-Computing Rechenzentrum bereitstellt, aus Sicht der User darstellt: geprägt durch lange Wartezeiten oder blitzschnell. Daher werden Unternehmen im kommenden Jahr verstärkt auf WAN-Optimierungslösungen zurückgreifen, um die Qualität von Cloud-Services zu erhöhen. Ein weiterer Trend: Die Bereitstellungsmodelle von WAN Optimization Appliances werden deutlich besser auf Cloud-Computing-Ansätze wie Software as a Service (SaaS) und Infrastructure as a Service (IaaS) abgestimmt. Ein Beispiel dafür sind die Appliances von Silver Peak. Sie sind zum einen als hardwarebasierte Systeme, zum anderen in Form von Virtual Machines verfügbar, die sich unter jedem führenden Hypervisor implementieren lassen.

2. Software Defined Networking: Weg von der Netzwerk-Hardware
Software Defined Networking (SDN) lässt sich auf zwei Arten implementieren: in Form virtualisierter Netzwerkkomponenten, also als reine Software-Lösung, oder als fester Bestandteil von Netzwerk-Hardware wie Switches. Es zeichnet sich ab, dass im kommenden Jahr SDN-Versionen auf Basis von Hypervisors das Rennen machen werden. Ein weiterer Trend, der den Verfechtern von herstellerneutralen SDN-Lösungen allerdings weniger gefallen dürfte: Auch 2014 haben herstellerspezifische Architekturen im Vergleich zu SDN-Lösungen auf Basis offener Standards die Nase vorn.

3. Point and Click: Virtualisierte Rechenzentren ermöglichen service-orientierte Bereitstellungsmodelle auf den Ebenen 4 bis 7
„Point and Click“ heißt die Devise im kommenden Jahr. Mehr benötigt ein Administrator nicht, wenn er in einer Virtual Domain neue IT-Dienste konfigurieren und bereitstellen möchte. Er kann gewissermaßen das von den Usern gewünschte Service-Portfolio „zusammenklicken“, bis hin zu komplexen Disaster-Recovery- und Data-Replication-Diensten. Und das alles, ohne dass er dazu ein spezielles Netzwerk-Know-how benötigt. Somit sind auch Storage- oder Virtualisierungsspezialisten in der Lage, IT-Dienste nach Bedarf zu konfigurieren.

4. Generalisten gesucht: Der Netzwerkmanager alter Prägung verschwindet
Auf drastische Änderungen ihres Aufgabengebietes und Berufsbildes müssen sich Netzwerk-Experten einstellen. Der Grund ist die wachsende Bedeutung von Virtualisierung und Software Defined Networking (SDN). Eine Folge dieser Entwicklung ist, dass sich Netzwerkverwalter erweiterte Fähigkeiten aneignen müssen. Neben Netzwerk-Know-how benötigen sie Fachwissen auf den Gebieten Virtualisierung und Storage-Technologien. Solchen Generalisten gehört die Zukunft.

5. Cloud ersetzt „On Premise“: Cloud-basierte Backup- und Datenreplizierungsdienste werden „Mainstream“
Zwei Entwicklungen, die das kommende Jahr prägen werden, sind das Virtualisieren von Storage-Ressourcen und ein Nachfrageschub bei Cloud-Computing-Diensten. Damit verbunden ist ein weiterer Trend: Die Anforderungen an unternehmensinterne IT-Infrastrukturen und Weitverkehrsnetze steigen drastisch an. Das gilt für die Performance, die Dienstgüte (Quality of Service, QoS) und die Ausnutzung der vorhandenen Bandbreite. Ohne Einsatz von WAN-Optimierungslösungen sind somit viele Cloud-Computing-Ansätze zum Scheitern verurteilt. Dies trifft auch auf das Replizieren und Sichern von Daten mithilfe von Cloud-Storage-Diensten zu. Solche Services gewinnen 2014 an Bedeutung, zumal der Preis für Speicherplatz in Cloud-Rechenzentren drastisch sinkt. Nutzer solcher Dienste sollten daher einen kritischen Blick auf die Gesamtkosten (Total Cost of Ownership, TCO) werfen.

6. Software statt Hardware: Die anstehende Erneuerung von Netzwerk-Hardware beschleunigt Umstieg auf Software-Services
In vielen Unternehmen und Organisationen steht in den kommenden Monaten der Austausch von Netzwerk-Hardware gegen neue Versionen an. Doch neue Abrechnungsmodelle, etwa auf Basis der Ressourcen und Funktionen, die ein Anwender tatsächlich nutzt, werden den Trend hin zu softwarebasierten Lösungen beschleunigen. Eine weitere Folge dieser Entwicklung: herstellerspezifische Netzwerk-Hardware, die auf den Layer 4 bis 7 arbeitet und nur für einen Anwendungszweck ausgelegt ist, wird gegenüber flexibleren Software-Lösungen den Kürzeren ziehen.

7. MPLS-Services unter Druck: Internet-VPNs ersetzen Dienste auf Grundlage von Multi-Protocol Label Switching
Die Anbieter von Internet- und Weitverkehrsdiensten auf Basis von MPLS (Multi-Protocol Label Switching) müssen mit Gegenwind rechnen. Denn Internet-basierte Virtual Private Networks (VPNs) auf Grundlage des SSL-Protokolls (Secure Socket Layer) gewinnen an Bedeutung. Der Grund dafür ist, dass Anwender auf einfache Weise über „normale“ Internet-Verbindungen auf Cloud-Computing-Dienste zugreifen können. Warum also dieses Verfahren nicht generell nutzen und auf teure und komplexe MPLS-Dienste verzichten? Für MPLS-Service-Provider bedeutet dies, dass sie neue Dienstleistungen entwickeln müssen, die ihren Kunden einen Mehrwert bieten. (pi)

* David Hughes ist Gründer und CEO von Silver Peak.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*