Jay Kidd, Senior Vice President und Chief Technology Officer von NetApp, ist überzeugt: In der IT geht es 2015 rund! [...]
Seit 35 Jahren arbeite ich in der IT und noch nie gab es gleichzeitig so viele Veränderungen. Jeder Bereich der IT ist in Bewegung, egal ob es um Geräte für Endnutzer, Netzwerke, Applikations-Design, virtuelle Server-Software, physikalisches Server-Design, Storage-Systeme oder um Storage-Medien geht. Einige dieser Veränderungen sind bereits in vollem Gange und gewinnen 2015 zusätzlich an Fahrt, während andere gerade erst entstehen. Egal wie, wir sollten uns anschnallen, denn in der IT geht es 2015 rund!
1. Internet of Things und Big Data Analytics produzieren Nachfolger
Integrierte Telemetrie für Industrieausrüstung, neue Geräte zur Gesundheitsüberwachung, mobile Zahlungssysteme sowie eine Vielzahl neuer Sensoren bilden die nächste Welle an Daten für unternehmensrelevante Analysen. Viele Unternehmen hatten bislang das Problem, dass ihre existierenden Datensammlungen keinen ausreichenden Mehrwert für die Geschäftsentwicklung boten. Jetzt lassen sich diese Daten aber mit Informationen aus der realen Welt bzw. dem Internet der Dinge korrelieren, um so Geschäftsprozesse zu optimieren und um das Kundenerlebnis zu verändern. Die Verbindung von vernetzten Geräten mit Echtzeit- und Background-Analysetools wird die Art und Weise verändern, wie Unternehmen in der Welt agieren.
2. Die Zukunft von All-Flash Arrays liegt außerhalb der Flash-Technologie
Flash verändert zwar die Zukunft von Storage in Unternehmen. Aber die Idee eines All-Flash Rechenzentrums wird sich nicht durchsetzen, da mindestens 80 Prozent der Daten weiterhin auf Disks verbleiben. Letztlich wird der Preis entscheiden, denn auch die günstigsten SSDs sind am Ende dieses Jahrzehnts wahrscheinlich immer noch zehn Mal teurer als die günstigsten SATA Festplatten. Komprimierung und Deduplikation sind sowohl bei Disk als auch bei Flash vorhanden. Um „heiße“ Daten im operativen Betrieb schnell verarbeiten zu können, wird jede Storage-Architektur Flash integrieren. Wer jedoch ausschließlich auf Flash setzt und keine Integration mit hybriden Flash- oder Disk-Arrays hat, wird einen heißen Sportwagen in der Garage stehen haben. IT-Experten haben sicher ihren Spaß daran, mit diesen Systemen zu experimentieren, jedoch ist dies nicht das verlässliche Arbeitspferd, das die IT wirklich braucht.
3. Eine anbieterübergreifende hybride Cloud ist die einzig sinnvolle Variante
Jeder Kunde nutzt die Cloud bereits auf die eine oder andere Art und Weise. Genauso wie Kunden früher eher zögerlich auf nur einen einzigen Anbieter für ihre On-Premise-IT setzen wollten, arbeiten sie auch heute bevorzugt mit mehreren Cloud-Anbietern zusammen. Angst vor der Abhängigkeit von nur einem Anbieter, die Aussicht auf eine stärkere Position bei Verhandlungen oder einfach nur der Wunsch nach Wahlfreiheit treibt Kunden zu einer hybriden Cloud-Lösung, die sie nicht an einen einzigen Anbieter fesselt. Wer als SaaS-Anbieter keine Möglichkeit zur Datenextraktion bietet, wird es schwer haben, Kunden zu gewinnen. Auch PaaS-Angebote, die nur in einer Cloud laufen, werden weniger genutzt werden. Wer die IT strategisch plant, wird daher Software-Technologien nutzen, die sowohl On-Premise als auch in den unterschiedlichen Clouds laufen.
4. Software-Defined Storage bildet eine Brücke zwischen Public und Private Clouds
Software-Defined Storage (SDS), das auf verschiedenen Hardware-Plattformen nutzbar ist und Automationsmöglichkeiten besitzt, wird auch mit Cloud-Anwendungen einsetzbar sein. So entsteht eine Data Fabric, die von On-Premise bis zur Public Cloud reicht. SDS ermöglicht es Applikationen, einheitlich auf Daten zuzugreifen, die in der Cloud liegen. Zudem erleichtert SDS das Datenmanagement beim Umzug von Applikationen in die Cloud. SDS für Object-Storage wird die Brücke schlagen zwischen On-Premise und Cloud Object-Repositories. Die Storage Effizienz in einigen Software-Defined Storage Angeboten, wie beispielsweise bei Cloud ONTAP, reduziert außerdem die Kosten der Datenübertragung in die Public Cloud sowie beim Ablegen aktiver Daten in der Public Cloud für einen längeren Zeitraum.
5. Docker ersetzen Hypervisors als Container der Wahl für Scale-Out Anwendungen
Es entstehen derzeit neue SaaS-Applikationen und Anwendungsszenarien für große Organisationen, die das Scale-Out Microservices-Modell verwenden. Hierbei hat sich gezeigt, dass Docker Application-Container effizienter mit Ressourcen umgehen als VMs mit einem kompletten Betriebssystem. Alle großen Systeme zur VM-Orchestrierung unterstützen mittlerweile Docker. Im Jahre 2015 wird ein robustes Ökosystem für Datenmanagement und die zugehörigen Dienste entstehen.
6. Hyper-konvergente Infrastruktur ist das neue Rechenzentrum
Produkte für hyper- konvergente Infrastrukturen werden die neuen Server und enthalten Direct-Attached Storage (DAS). Die traditionelle IT liefert die Rechenleistung aus Blades oder über Boxen in Racks, die über dedizierte Prozessoren, Speicher, I/O und Netzwerkverbindungen verfügen und auf denen eine Vielzahl von VMs laufen. Hyper- konvergente Infrastrukturen, wie beispielsweise VMwares EVO, ermöglichen es, lokalen DAS über Server hinweg zu teilen und so den gesamten Rechnerverbund belastbarer zu machen, während gleichzeitig vielfältig genutzte Daten über LAN oder SAN zur Verfügung stehen. 2015 werden die weitere Nutzung von Solid-State Storage, des Remote Direct Memory Access (RDMA) Netzwerkprotokolls und neue Netzwerkanbindungen ein Computing-Modell entstehen lassen, bei dem Core, Memory und IOP Storage in eine Fabric mit geringer Latenz integriert sind. Das neue Modell wird sich nach außen wie ein Single Rack-Scale System verhalten.
* Jay Kidd ist Leiter des NetApp Chief Technology Office und als solcher verantwortlich für die allgemeine technologische Ausrichtung, Architektur, erweiterte Entwicklung sowie für Technologiespezialisierung und -standards. Darüber hinaus ist er Mitglied des Managementteams.
Be the first to comment