Gastkommentar: Prognosen und Trends für 2015

Jay Kidd, Senior Vice President und Chief Technology Officer von NetApp, ist überzeugt: In der IT geht es 2015 rund! [...]

Seit 35 Jahren arbeite ich in der IT und noch nie gab es gleichzeitig so viele Veränderungen. Jeder Bereich der IT ist in Bewegung, egal ob es um Geräte für Endnutzer, Netzwerke, Applikations-Design, virtuelle Server-Software, physikalisches Server-Design, Storage-Systeme oder um Storage-Medien geht. Einige dieser Veränderungen sind bereits in vollem Gange und gewinnen 2015 zusätzlich an Fahrt, während andere gerade erst entstehen. Egal wie, wir sollten uns anschnallen, denn in der IT geht es 2015 rund!
 
1. Internet of Things und Big Data Analytics produzieren Nachfolger
Integrierte Telemetrie für Industrieausrüstung, neue Geräte zur Gesundheitsüberwachung, mobile Zahlungssysteme sowie eine Vielzahl neuer Sensoren bilden die nächste Welle an Daten für unternehmensrelevante Analysen. Viele Unternehmen hatten bislang das Problem, dass ihre existierenden Datensammlungen keinen ausreichenden Mehrwert für die Geschäftsentwicklung boten. Jetzt lassen sich diese Daten aber mit Informationen aus der realen Welt bzw. dem Internet der Dinge korrelieren, um so Geschäftsprozesse zu optimieren und um das Kundenerlebnis zu verändern. Die Verbindung von vernetzten Geräten mit Echtzeit- und Background-Analysetools wird die Art und Weise verändern, wie Unternehmen in der Welt agieren.
 
2. Die Zukunft von All-Flash Arrays liegt außerhalb der Flash-Technologie
Flash verändert zwar die Zukunft von Storage in Unternehmen. Aber die Idee eines All-Flash Rechenzentrums wird sich nicht durchsetzen, da mindestens 80 Prozent der Daten weiterhin auf Disks verbleiben. Letztlich wird der Preis entscheiden, denn auch die günstigsten SSDs sind am Ende dieses Jahrzehnts wahrscheinlich immer noch zehn Mal teurer als die günstigsten SATA Festplatten. Komprimierung und Deduplikation sind sowohl bei Disk als auch bei Flash vorhanden. Um „heiße“ Daten im operativen Betrieb schnell verarbeiten zu können, wird jede Storage-Architektur Flash integrieren. Wer jedoch ausschließlich auf Flash setzt und keine Integration mit hybriden Flash- oder Disk-Arrays hat, wird einen heißen Sportwagen in der Garage stehen haben. IT-Experten haben sicher ihren Spaß daran, mit diesen Systemen zu experimentieren, jedoch ist dies nicht das verlässliche Arbeitspferd, das die IT wirklich braucht.
 
3. Eine anbieterübergreifende hybride Cloud ist die einzig sinnvolle Variante
Jeder Kunde nutzt die Cloud bereits auf die eine oder andere Art und Weise. Genauso wie Kunden früher eher zögerlich auf nur einen einzigen Anbieter für ihre On-Premise-IT setzen wollten, arbeiten sie auch heute bevorzugt mit mehreren Cloud-Anbietern zusammen. Angst vor der Abhängigkeit von nur einem Anbieter, die Aussicht auf eine stärkere Position bei Verhandlungen oder einfach nur der Wunsch nach Wahlfreiheit treibt Kunden zu einer hybriden Cloud-Lösung, die sie nicht an einen einzigen Anbieter fesselt. Wer als SaaS-Anbieter keine Möglichkeit zur Datenextraktion bietet, wird es schwer haben, Kunden zu gewinnen. Auch PaaS-Angebote, die nur in einer Cloud laufen, werden weniger genutzt werden. Wer die IT strategisch plant, wird daher Software-Technologien nutzen, die sowohl On-Premise als auch in den unterschiedlichen Clouds laufen.
 
4. Software-Defined Storage bildet eine Brücke zwischen Public und Private Clouds
Software-Defined Storage (SDS), das auf verschiedenen Hardware-Plattformen nutzbar ist und Automationsmöglichkeiten besitzt, wird auch mit Cloud-Anwendungen einsetzbar sein. So entsteht eine Data Fabric, die von On-Premise bis zur Public Cloud reicht. SDS ermöglicht es Applikationen, einheitlich auf Daten zuzugreifen, die in der Cloud liegen. Zudem erleichtert SDS das Datenmanagement beim Umzug von Applikationen in die Cloud. SDS für Object-Storage wird die Brücke schlagen zwischen On-Premise und Cloud Object-Repositories. Die Storage Effizienz in einigen Software-Defined Storage Angeboten, wie beispielsweise bei Cloud ONTAP, reduziert außerdem die Kosten der Datenübertragung in die Public Cloud sowie beim Ablegen aktiver Daten in der Public Cloud für einen längeren Zeitraum.

5. Docker ersetzen Hypervisors als Container der Wahl für Scale-Out Anwendungen

Es entstehen derzeit neue SaaS-Applikationen und Anwendungsszenarien für große Organisationen, die das Scale-Out Microservices-Modell verwenden. Hierbei hat sich gezeigt, dass Docker Application-Container effizienter mit Ressourcen umgehen als VMs mit einem kompletten Betriebssystem. Alle großen Systeme zur VM-Orchestrierung unterstützen mittlerweile Docker. Im Jahre 2015 wird ein robustes Ökosystem für Datenmanagement und die zugehörigen Dienste entstehen.

6. Hyper-konvergente Infrastruktur ist das neue Rechenzentrum
Produkte für hyper- konvergente Infrastrukturen werden die neuen Server und enthalten Direct-Attached Storage (DAS). Die traditionelle IT liefert die Rechenleistung aus Blades oder über Boxen in Racks, die über dedizierte Prozessoren, Speicher, I/O und Netzwerkverbindungen verfügen und auf denen eine Vielzahl von VMs laufen. Hyper- konvergente Infrastrukturen, wie beispielsweise VMwares EVO, ermöglichen es, lokalen DAS über Server hinweg zu teilen und so den gesamten Rechnerverbund belastbarer zu machen, während gleichzeitig vielfältig genutzte Daten über LAN oder SAN zur Verfügung stehen. 2015 werden die weitere Nutzung von Solid-State Storage, des Remote Direct Memory Access (RDMA) Netzwerkprotokolls und neue Netzwerkanbindungen ein Computing-Modell entstehen lassen, bei dem Core, Memory und IOP Storage in eine Fabric mit geringer Latenz integriert sind. Das neue Modell wird sich nach außen wie ein Single Rack-Scale System verhalten.

* Jay Kidd ist Leiter des NetApp Chief Technology Office und als solcher verantwortlich für die allgemeine technologische Ausrichtung, Architektur, erweiterte Entwicklung sowie für Technologiespezialisierung und -standards. Darüber hinaus ist er Mitglied des Managementteams.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*