IT-Prognosen für 2019 von NetApp

Viele Trend-Technologien wie Künstliche Intelligenz (KI) oder das Internet of Things (IoT) sind bereits bekannte Größen. Diese werden sich durch ihre Rolle im Datenmanagement aber neu definieren – und dann eine noch zentralere Rolle im Arbeitsalltag einnehmen. Atish Gude, Chief Strategy Officer bei NetApp, hat für 2019 fünf Trends ausgemacht. [...]

Mit Trends wie KI und IoT zusammen mit Containerisierung können Entwickler laut NetApp Impulse für neue Geschäftsmöglichkeiten setzen. (c) pixabay
Mit Trends wie KI und IoT zusammen mit Containerisierung können Entwickler laut NetApp Impulse für neue Geschäftsmöglichkeiten setzen. (c) pixabay

1. KI-Sprungbrett Cloud

Auch wenn wir gerade erst an der Oberfläche des KI-Potenzials kratzen, stehen immer mehr Software-Tools zur Verfügung, die – unterstützt durch die Rechenpower der Cloud – die Entwicklung von KIApplikationen immer zugänglicher machen. Diese KILösungen werden zum einen die nötige Performance und Skalierbarkeit für On- oder Off-Premises-Integration bieten. Zusätzlich stellt ihr Variantenreichtum auch die Unterstützung zahlreicher Datenzugriffsprotokolle und Dateiformate sicher – die entsprechende ITInfrastruktur vorausgesetzt. Denn im KI-Bereich muss diese schnell, verlässlich und automatisiert sein, um die entstehenden Workloads schultern zu können. Diese Architekturen bereitzustellen wird für Händler die nächste große Herausforderung werden.

2. Das IoT-Edge wird selbstständiger

Bisherige IoT-Geräte folgten immer dem „Nach Hause telefonieren“-Prinzip: Ihre Sensoren sammeln Daten, schicken diese zur Analyse weiter und warten auf weitere Instruktionen. Aber selbst mit dem kommenden 5G-Netz stehen diese Datenwege in die Cloud oder das Rechenzentrum und wieder zurück, Entscheidungen in Echtzeit im Weg. Zusätzlich steigen die Datenmengen. Das verlagert die Datenverarbeitung Richtung Anwender, bzw. deren Endgeräte. Deshalb werden immer mehr IoT-Geräte inhärente Kapazitäten für die Verarbeitung und Reduzierung ihrer gesammelten Daten enthalten. Das erlaubt beispielsweise die Vorselektion relevanter Daten direkt im Gerät, das selbstständig entscheidet, welche Daten an Cloud oder Workstation weitergeleitet werden. Für Nutzer bedeutet das einen schnelleren Zugriff auf die Datensätze, die für ihre Arbeit wichtig sind und eine Beschleunigung datengestützter Entscheidungsprozesse.

3. Einmal automagisch, bitte

Je mehr sich die ITInfrastruktur von On-Premises-Systemen und -Servern löst, umso wichtiger ist es, dass das Speicher- und Datenmanagement hochgradig verlässlich und verfügbar ist. Statt geschlossener Systeme sind die modernen Architekturen ein abstraktes Netz aus cloudbasierten Lösungen und Services – also Hybrid-Multi-Cloud Data Fabric statt Rechenzentrum. Dank Containerisierung und Hybrid-Cloud-Umgebungen müssen sich Entwickler nicht mit den Bestandteilen des Systems auseinandersetzen, sondern können voraussetzen, dass es eigenständig und automatisch funktioniert. Dies kommt der veränderten Erwartungshaltung der Entwickler an die ITInfrastruktur entgegen – sie soll einfach funktionieren, eben „automagisch“. Neuer Faktor dieser zunehmend dynamischen Konstrukte werden prädiktive Technologien und Analysen sein, die Entwicklern und Entscheidern gleichermaßen helfen, fundierte Rückschlüsse aus ihren Daten zu ziehen.

4. Die Frage der richtigen Cloud

In der Theorie werden Daten und Workloads dank der Cloud immer mobiler und ungebundener. Praktisch stehen Unternehmen vor der Herausforderung, bei ihrem Datenmanagement die Balance zwischen vielen konkurrierenden Faktoren zu halten: Datensicherheit, Zugriffszeiten und Portabilität unterschiedlicher Services, um nur einige zu nennen. Und viele dieser Elemente unterliegen den Beschränkungen des jeweiligen Providers, Stichwort Platform- oder Vendor-lock-in. Gerade für kleinere Unternehmen ist deshalb die Einfachheit und Optimierung eines einzelnen Anbieters verlockend. Komplexere Unternehmensstrukturen großer Konzerne erfordern wiederum eine Flexibilität und Service-Vielfalt, die nur Hybrid-Multi-Cloud-Umgebungen bieten können. Deren Kosteneffizienz ist ein weiteres Plus. Egal welchen Weg ein Unternehmen allerdings in die Cloud wählt, es war nie wichtiger, eine ganzheitliche Datenstrategie zu entwickeln, um das Meiste aus der gewählten Infrastruktur herauszuholen.

5. Containerisierung: Freiheit für die Workloads

Der Einzug der Containerisierung verspricht eine HybridCloud-Entwicklungsumgebung ohne Vendor-lock-in, die ihr Potenzial maximal ausschöpft. Dank de-facto Standard Kubernetes für Multi-CloudApplikationen steht einem intuitiven Workload-Management nichts mehr im Wege. Das Tolle: Neue Cloud-Orchestrierungstechnologien, die auf Containern basieren, ermöglichen mehr Anwendungsfälle sowohl für Public-, als auch On-Premises. Workloads können nun direkt an die Datenquellen verlagert werden, nicht wie bisher umgekehrt. Das fördert eine agile Entwicklungsumgebung und macht Schluss mit dem ständigen Umziehen von Applikationen – eine richtig gute Sache.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*