Die Auswirkungen von KI, ML und Deep Learning auf Data Storage

Artificial Intelligence (AI) und Maschinelles Lernen (ML) sind schon seit langem ein heiß diskutiertes Thema. Die Auswirkungen auf unser Leben waren bisher jedoch noch überschaubar. [...]

Foto: AgKu/Pixabay

Seitdem jedoch OpenAI mit ChatGPT für Furore sorgt, klingen die enthusiastischen AI-Prognosen aus den letzten Jahren kaum noch futuristisch. Es steht nicht mehr zur Debatte, dass AI und andere Formen des Maschinellen Lernens das Leben und die Wirtschaft nachhaltig verändern werden.

Denn mit AI-Tools lassen sich wiederholende Aufgaben automatisieren und beschleunigen. Möglich machen das neue AI-Anwendungen – auf der Grundlage riesiger Datenmengen. Die Entwicklung von Deep-Learning-Anwendungen erfolgt dabei im Allgemeinen in drei Schritten: Datenaufbereitung, Modelltraining und Schlussfolgerung.

1. Datenaufbereitung (data preparation) – Riesige Mengen an Rohmaterial werden in verwertbare Daten umgewandelt.
2. Modelltraining (model training) – Softwareprogramme werden darauf trainiert, aus den Daten eine neue Fähigkeit zu erlernen.
3. Schlussfolgerung (inference) – Das Programm wendet das Gelernte auf neue Daten an.

Man muss kein Spezialist sein, um zu sehen, dass Daten die Basis für AI sind. Entsprechend kann erwartet werden, dass mit mehr AI-Anwendungen ein massives Datenwachstum einhergeht. Branchenanalysten gehen davon aus, dass sich die Kapazität unstrukturierter Daten – also Dateien und Objekte – in den nächsten Jahren verdoppeln oder sogar verdreifachen wird. AI, ML und Deep Learning werden einen großen Anteil an diesem Wachstum haben.

Neue Ära für Datenspeicherung

Diese “neue Ära” für Daten stellt die Verantwortlichen für die IT-Infrastruktur vor einige besondere Herausforderungen. Die Datensätze haben einen Umfang und ein Volumen, welche exponentiell größer sind als alles andere je zuvor.

Unternehmen, die beispielsweise Machine-Learning-Technologien für Autonomes Fahren entwickeln, erzeugen im Allgemeinen in nur wenigen Jahren mehr als ein Exabyte an Daten. 

Autonomes Fahren ist eine Form des Maschinellen Lernens, insbesondere des maschinellen Sehens, das auf Bild- und Videodaten beruht. Es wird erwartet, dass sich das Datenwachstum aufgrund von AI und ML in den nächsten fünf Jahren noch weiter beschleunigen wird.

Anforderungen an die Storage-Infrastruktur

Über die einfache Speicherung dieser enormen Datenmengen hinaus, stellen solche Deep-Learning-Anwendungen enorme Anforderungen an die Leistung der Speicherinfrastruktur. Denn die Verarbeitung dieser riesigen unstrukturierten Datensätze erfordert extrem niedrige Latenzzeiten und auch in diesem Maßstab konsistente Performance.

Festplattenbasierte Speichersysteme, die auf seriellen Festplatten basieren, können diese Anforderungen einfach nicht mehr erfüllen. Um die nötigen niedrigen Latenzzeiten und höhere Performance zu garantieren, setzen Unternehmen auf neue verteilte Architekturen basierend auf NVMe und RDMA.

Die Nutzung dieser auf Flash basierten Speicher werden aufgrund der sinkenden Preise für Flashspeicher auch immer häufiger eingesetzt.

Deutliche Leistungssteigerung von Speichersystemen notwendig

Der Ort der Speicherung dieser neuen Daten ist ein weiterer Faktor, den es zu beachten gilt. Denn die Daten befinden sich in den seltensten Fällen bequem auf dem Primärspeicher im Hauptrechenzentrum. In den meisten Fällen werden die Daten irgendwo außerhalb des Rechenzentrums erzeugt und anschließend zur Verarbeitung an einen anderen Ort transferiert.

Dies kann in der Public Cloud oder in einem Rechenzentrum geschehen, oder – was wahrscheinlicher ist – finden Teile der Datenverarbeitung an beiden Orten statt. Datentransport und -verwaltung über den gesamten Lebenszyklus der Daten hinweg sind also wichtige Aspekte für die Verantwortlichen der IT-Infrastruktur.

Insbesondere, da diese Datenmengen und ihre Modelle über Jahrzehnte aufbewahrt werden, falls die Programme neu trainiert werden müssen.

All diese Faktoren haben bereits Druck auf alte Speicherarchitekturen ausgeübt. Der größte Teil der unstrukturierten Daten wird auf Systemen gespeichert, die vor über 20 Jahren entwickelt wurden, als man sich noch nicht vorstellen konnte, dass zukünftig Billionen von Daten und Objekten jahrzehntelang gespeichert werden und die meisten Dateien von Maschinen und nicht von Menschen erstellt werden.

Fazit: Storage neuester Generation mit NVMe und RDMA ist notwendig

Unternehmen, die Anwendungen auf Basis von AI, ML und Deep Learning erstellen, können ihre Ziele auf Dauer nicht mit einer traditionellen Speicherinfrastruktur erreichen, denn diese beeinträchtigt die Produktivität der Datenwissenschaftler, Inhaltsersteller und Analysten, die täglich auf diese Daten angewiesen sind.

Schlussendlich müssen diese Unternehmen sich mit den Möglichkeiten von Speicherarchitekturen der neuesten Generation auseinandersetzen. NVMe und RDMA werden hier zwangsläufig Teil der Planung sein.

powered by www.it-daily.net


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*