Ohne datenzentrische Architektur keine künstliche Intelligenz

Unternehmen müssen sicherstellen, dass Daten im Mittelpunkt ihres IT-Ansatzes stehen. Ohne die Einführung einer datenzentrischen Architektur können Unternehmen zwar versuchen, von künstlicher Intelligenz und Machine Learning zu profitieren, aber mit wenig Wirkung. [...]

Der aktuelle Boom rund um künstliche Intelligenz wird durch die geballte Kraft von drei Schlüsseltechnologien angetrieben: Deep-Learning-Software, Grafikprozessoren und Big Data. (c) Fotolia/maxsim
Der aktuelle Boom rund um künstliche Intelligenz wird durch die geballte Kraft von drei Schlüsseltechnologien angetrieben: Deep-Learning-Software, Grafikprozessoren und Big Data. (c) Fotolia/maxsim

Die vierte industrielle Revolution, die von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) angetrieben wird, verändert Gesellschaft und Wirtschaft. KI hat bereits immensen Einfluss auf einige Branchen und ermöglicht vieles: von einer intelligenteren Gesundheitsversorgung und besseren Genomik-Tests bis hin zu einem besseren Verständnis von Pflanzenkrankheiten in der Landwirtschaft und einem verbesserten innerstädtischen Verkehrsmanagement. Zum Erfolg solcher Systeme trägt maßgeblich eine datenzentrischer Architektur bei, die Pure Storage zukunftsorientierten Unternehmen und Organisationen ans Herz legt.

KI ist keine neue Technologie. Den Begriff gibt es seit den 1950er-Jahren, aber bis vor kurzem war KI auf akademische Projekte und eine kleine Handvoll der größten Unternehmen der Welt beschränkt. In der Tat, viele Smartphones und andere Technologien, die Verbraucher heute für selbstverständlich halten, verwenden KI. Sprachassistenten und prädiktiver Text werden täglich von vielen Menschen verwendet“, erklärt Güner Aksoy, Regional Sales Director Central Europe bei Pure Storage. „Bis jetzt hat es jedoch gedauert, bis die Technologie so weit fortgeschritten ist, dass KI für alle Unternehmen nutzbar ist. Dieser aktuelle Big Bang der KI-Einführung wird durch die geballte Kraft von drei Schlüsseltechnologien angetrieben: Deep-Learning-Software, Grafikprozessoren und Big Data.“

Grundsteinlegung

Inspiriert durch das menschliche Gehirn, verwendet Deep Learning (DL) massiv parallele neuronale Netze und schreibt effektiv seine eigene Software, indem es aus einer Vielzahl von Beispielen lernt. Die DL-Technologie hat sich bereits als sehr nützlich in Bereichen erwiesen, in denen die Daten weniger numerisch sind und eher einen kognitiven Ansatz erfordern. Aufgaben wie Sprach- und Audioerkennung, Sprachverarbeitung oder visuelles Verständnis wären mit Standard-ML-Techniken wahrscheinlich nicht so schnell vorangekommen.

GPUs sind die zweite Technologie hinter dem KI-Durchbruch. Moderne Grafikprozessoren mit Tausenden von Kernen sind gut geeignet, um Algorithmen auszuführen, die an die Funktionsweise des menschlichen Gehirns angelehnt sind. Mit der richtigen GPU können Datenwissenschaftler und andere Wissenschaftler immer komplexere und detailliertere KI-Projekte durchführen.

Sowohl DL als auch GPUs sind wichtige Durchbrüche und Technologien, die sich spielverändernd auswirken. Wenn man sie auf das dritte Puzzleteil, Big Data, anwendet, ist das Innovationspotenzial unglaublich. Doch während DL und GPUs erhebliche Fortschritte machten, hinken viele Speichertechnologien hinterher. Infolgedessen besteht eine Kluft zwischen Rechen- und Speicherperformance, wodurch das Ausmaß, in dem Unternehmen von Daten profitieren können, die weiterhin exponentiell wachsen, begrenzt wird.

Erschließung des Datenpotenzials durch Infrastrukturinnovation

„Für Unternehmen ist es von entscheidender Bedeutung, in neue Technologien zu investieren, um für das explosive Datenwachstum gerüstet zu sein. Da die Größe der Datensätze zugenommen hat, ist das Verschieben und Replizieren von Daten zu einem unerschwinglichen Aufwand und einem Engpass für Innovationen geworden. Ein neues Modell wird benötigt, die datenzentrische Architektur“, erklärt Güner Aksoy.

Eine datenzentrische Architektur ist ein modernes Design, das Daten in den Mittelpunkt der IT-Infrastruktur eines Unternehmens stellt. Dadurch entfällt die Notwendigkeit, Daten zwischen alten und neuen Systemen zu verschieben. Geschäftsdaten und Anwendungen bleiben erhalten, während die Technologie darauf aufbaut. Ziel ist es, das Computing-Element zu den Daten zu bringen, und nicht umgekehrt. Dies bedeutet, dass Unternehmen weniger Zeit und Kosten für das Verschieben von Daten und mehr Zeit für Innovationen und die Nutzung von Datensätzen aufwenden können.

Um wirklich von einer datenzentrischen Architektur zu profitieren, muss das System in Echtzeit arbeiten und die Leistung bereitstellen, die für die Analysen der nächsten Generation erforderlich ist, die KI so leistungsfähig machen. Hierzu muss nach Meinung von Pure Storage die Speicherinfrastruktur On-Demand verfügbar und „selbstfahrend“ sein, das heißt, sie bedarf keiner ständigen Verwaltung, so dass das IT-Team bedarfsgerecht Speicher als Service für das Unternehmen bereitstellen kann. Die Konsolidierung und Vereinfachung durch Flash macht es für die IT-Abteilung wesentlich einfacher, heute verfügbare moderne Technologie zu unterstützen, die das Wachstum von morgen vorantreiben soll.

Storage als Voraussetzung für die Nutzung von Big Data, GPUs und DL

Durch die Optimierung der Computing- und Storage-Paarung können Unternehmen eine Deployment-Referenzarchitektur definieren, die den GPUs eine ideale Storage-Infrastruktur bietet. Diese kombiniert die Geschwindigkeit von lokal angeschlossenem Speicher mit der Einfachheit, Kapazität und Konsolidierung von Shared Storage.

„Unternehmen wie Paige.AI und Global Response nutzen diesen optimierten Ansatz bereits als Rechen- und Speicherressourcen für ihre KI-Projekte“, erklärt Güner Aksoy. Paige.AI ist ein Unternehmen, das sich darauf konzentriert, die klinische Diagnose und Behandlung in der Onkologie durch den Einsatz von KI zu revolutionieren. Die Pathologie ist der Eckpfeiler der meisten Krebsdiagnosen. Doch die meisten pathologischen Diagnosen beruhen auf manuellen, subjektiven Prozessen, die vor mehr als einem Jahrhundert entwickelt wurden. Durch die Nutzung des Potenzials der KI will Paige.AI die Pathologie- und Diagnostikindustrie von einer hoch qualitativen in eine strengere, quantitative Disziplin verwandeln. Mit Zugang zu einem der weltweit größten Archive für Tumorpathologie benötigte das Unternehmen die fortschrittlichste DL-Infrastruktur, um große Datenmengen schnell in klinisch validierte KI-Anwendungen umzuwandeln.

Für Unternehmen wie Global Response bietet KI die Möglichkeit, bestehende Geschäftsmodelle neu zu erfinden. Global Response hat mit der Entwicklung eines hochmodernen Call-Center-Systems begonnen, das die Echtzeit-Transkription und -Analyse von Supportanrufen ermöglicht. Daraus resultieren höhere Nutzerfreundlichkeit und schnellere Lösungen. Beides wird immer wichtiger, da sich die Erwartungen der Verbraucher stark in Richtung personalisierter Erlebnisse verschieben. Global Response hatte einen Wendepunkt erreicht, an dem sich die unternehmensweite Integration von KI als entscheidend für den anhaltenden Geschäftserfolg herausstellte. Durch den Einsatz einer Lösung, die neueste Soft- und Hardware integriert, können die Teams von Global Response innerhalb von Stunden, nicht erst Wochen oder Monaten, einsatzbereit sein.

Daten in den Mittelpunkt des Geschäftsbetriebs stellen

KI und DL heben das, was mit Analytik möglich ist, auf die nächste Ebene, und dies wirkt sich auf jede Branche aus. Gartner prognostiziert, dass KI bis zum Jahr 2020 in fast allen verfügbaren softwaregesteuerten Produkten und Dienstleistungen enthalten sein wird. Damit dies Realität wird, müssen Unternehmen sicherstellen, dass Daten im Mittelpunkt ihres IT-Ansatzes stehen. Ohne die Einführung einer datenzentrischen Architektur können Unternehmen zwar versuchen, von DL und GPUs zu profitieren, aber mit wenig Wirkung“, fasst Güner Aksoy abschließend zusammen. „Wirklich erfolgreiche KI hängt von der perfekten Partnerschaft von Rechenleistung und Speicher ab. Ohne dieses optimale Zusammenspiel kann das volle Potenzial der Daten nicht ausgeschöpft werden.“


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*