Was ist ein SAN und wie unterscheidet es sich von einem NAS?

Ein Storage Area Network (SAN) ist ein Pool zentral verwalteter Speicherressourcen. Doch worin unterscheidet sich ein SAN von einem NAS, und wie werden SANs durch Flash-Speicher, KI und Hyperkonvergenz beeinflusst? [...]

(c) pixabay.com

Ein Storage Area Network (SAN) ist ein dediziertes Hochgeschwindigkeitsnetzwerk, das Zugriff auf Blockspeicher bietet. SANs wurden eingeführt, um die Verfügbarkeit und Leistung von Anwendungen zu verbessern, indem der Speicherverkehr vom restlichen LAN getrennt wird.

SANs ermöglichen es Unternehmen, Speicherressourcen einfacher zuzuweisen und zu verwalten und so eine höhere Effizienz zu erreichen. „Anstatt isolierte Speicherkapazitäten auf verschiedenen Servern zu haben, kann man einen Kapazitätspool für eine Reihe verschiedener Arbeitslasten gemeinsam nutzen und ihn nach Bedarf aufteilen. Das ist einfacher zu schützen und zu verwalten“, sagt Scott Sinclair, Senior Analyst der Enterprise Strategy Group.

Was ist in einem SAN enthalten?

Ein SAN besteht aus miteinander verbundenen Hosts, Switches und Speichergeräten. Die Komponenten können über eine Vielzahl von Protokollen miteinander verbunden werden. Fibre Channel ist das ursprüngliche Transportprotokoll der Wahl. Eine weitere Option ist Fibre Channel over Ethernet (FCoE), mit dem Unternehmen den Fibre-Channel-Verkehr über das vorhandene Hochgeschwindigkeits-Ethernet übertragen können, wobei Speicher- und IP-Protokolle in einer einzigen Infrastruktur zusammengeführt werden.

Weitere Optionen sind Internet Small Computing System Interface (iSCSI), das häufig in kleinen und mittelgroßen Unternehmen eingesetzt wird, und InfiniBand, das häufig in hochleistungsfähigen Computerumgebungen verwendet wird.

Die Hersteller bieten SAN-Switches der Einstiegs- und Mittelklasse für Rack-Einstellungen sowie High-End-Unternehmens-SAN-Direktoren für Umgebungen, die mehr Kapazität und Leistung erfordern. Zu den wichtigsten Anbietern auf dem SAN-Markt für Unternehmen gehören Dell EMC, Hewlett-Packard Enterprise, Hitachi, IBM, NetApp und Pure Storage.

„Ein SAN besteht aus zwei Ebenen: Die erste Ebene – die Speicherverdrahtungsebene – stellt die Konnektivität zwischen den Knoten in einem Netzwerk her und transportiert geräteorientierte Befehle und den Status. Mindestens ein Speicherknoten muss mit diesem Netzwerk verbunden sein.

Die zweite Schicht – die Software-Schicht – verwendet Software, um Mehrwertdienste bereitzustellen, die über die erste Schicht laufen“, so die Definition des Marktforschungsunternehmens Gartner für ein SAN.

Was ist der Unterschied zwischen NAS und SAN?

SAN und Network-Attached Storage (NAS) sind beides netzwerkbasierte Speicherlösungen. Ein SAN verwendet in der Regel Fibre-Channel-Konnektivität, während NAS in der Regel über eine Standard-Ethernet-Verbindung mit dem Netzwerk verbunden ist.

Ein SAN speichert Daten auf Blockebene, während NAS auf Daten in Form von Dateien zugreift. Für ein Client-Betriebssystem erscheint ein SAN in der Regel als Festplatte und existiert als eigenes, separates Netzwerk von Speichergeräten, während NAS als Dateiserver erscheint.

SAN wird mit strukturierten Arbeitslasten wie Datenbanken in Verbindung gebracht, während NAS im Allgemeinen mit unstrukturierten Daten wie Videos und medizinischen Bildern in Verbindung gebracht wird. „Die meisten Unternehmen haben sowohl NAS als auch SAN in irgendeiner Form im Einsatz, und oft hängt die Entscheidung von der Arbeitslast oder der Anwendung ab“, sagt Sinclair.

Was ist Unified Storage?

Unified Storage – auch bekannt als Multiprotokollspeicher – entstand aus dem Wunsch, SAN und NAS nicht mehr als zwei separate Speicherplattformen zu betreiben, sondern Block- und Dateispeicher in einem System zu vereinen. Mit Unified Storage kann ein einziges System sowohl Fibre Channel- und iSCSI-Blockspeicher als auch Dateiprotokolle wie NFS und SMB unterstützen.

NetApp wird im Allgemeinen für die Entwicklung von Unified Storage verantwortlich gemacht, obwohl viele Anbieter Multiprotokoll-Optionen anbieten.

Laut Sinclair sind heute die meisten Midrange Enterprise Storage Arrays Multiprotokoll-Arrays. „Anstatt eine Box für SAN-Speicher und eine Box für NAS-Speicher zu kaufen, können Sie eine Box kaufen, die alle vier Protokolle unterstützt – das kann Fibre Channel, iSCSI, SMB, NFS sein, was immer Sie wollen“, sagt er. „Derselbe physische Speicher kann entweder für NAS oder SAN verwendet werden.

Was gibt es Neues bei Unternehmens-SANs?

Die Anbieter von Speicherlösungen fügen ständig neue Funktionen hinzu, um die Skalierbarkeit, Verwaltbarkeit und Effizienz zu verbessern. Was die Leistung betrifft, so ist eine der wichtigsten Neuerungen die Flash-Speicherung. Anbieter bieten hybride Arrays an, die Spinning Disks mit Flash-Laufwerken kombinieren, sowie All-Flash-SANs.

In der Welt der Unternehmensspeicher setzt sich Flash bisher vor allem in SAN-Umgebungen durch, da die strukturierten Daten-Workloads in einem SAN in der Regel kleiner und leichter zu migrieren sind als massive unstrukturierte NAS-Implementierungen. Flash wirkt sich sowohl auf SAN- als auch auf NAS-Umgebungen aus, „aber zunächst vor allem auf der SAN-Seite und dann auf der NAS-Seite“, so Sinclair.

Künstliche Intelligenz beeinflusst auch die Entwicklung von SAN-Produkten. Die Anbieter versuchen, die Verwaltung zu vereinfachen, indem sie Funktionen für künstliche Intelligenz für den IT-Betrieb (AIOps) in ihre Überwachungs- und Support-Tools integrieren.

AIOps nutzt maschinelles Lernen und Analysen, um Unternehmen bei der Überwachung von Systemprotokollen, der Rationalisierung der Speicherbereitstellung, der Fehlerbehebung bei Überlastung und der Optimierung der Workload-Leistung zu unterstützen.

In seinem jüngsten „Magic Quadrant for Primary Storage“ zählt Gartner AIOps-Funktionen (weiterführender Artikel dazu, in Englisch) zu den wichtigsten Speicherfunktionen, die bei der Auswahl einer Plattform für strukturierte Daten-Workloads zu berücksichtigen sind.

AIOps-Funktionen können auf betriebliche Anforderungen abzielen, wie z. B. Kostenoptimierung und Kapazitätsmanagement, proaktive Unterstützung, Workload-Simulation und -Platzierung, prognostizierte Wachstumsraten und/oder Asset-Management-Strategien“, schreibt Gartner.

Auswirkungen der hyperkonvergenten Infrastruktur

Während konvergente Arrays und Appliances die Grenzen zwischen SAN und NAS verwischten, ging die hyperkonvergente Infrastruktur (HCI) bei der Konsolidierung der Speicheroptionen noch weiter.

HCI kombiniert Speicher, Datenverarbeitung und Netzwerke in einem einzigen System, um die Komplexität des Rechenzentrums zu reduzieren und die Skalierbarkeit zu erhöhen. Hyperkonvergente Plattformen umfassen einen Hypervisor für virtualisiertes Computing, softwaredefinierten Speicher und virtualisiertes Networking und laufen in der Regel auf handelsüblichen Servern.

HCI kann jede Art von Speicher enthalten – Block-, Objekt- und Dateispeicher können in einer einzigen Plattform kombiniert werden, und mehrere Knoten können zu Clustern zusammengefasst werden, um Pools mit gemeinsam genutzter Speicherkapazität zu schaffen.

Die Vorteile von gemeinsam genutztem Speicher finden bei Unternehmen großen Anklang, zumal viele moderne Anwendungen auf Datei- und Objektspeicher angewiesen sind und das Wachstum unstrukturierter Daten das Wachstum strukturierter Daten weiterhin übersteigt.

HCI ist kein Ersatz für alle SAN-Implementierungen, aber Unternehmen können sich je nach den Kosten, der Skalierbarkeit und den Leistungsanforderungen bestimmter Workloads für HCI entscheiden.

Verbrauchsbasierte IT ist ein wachsender Trend

Ein weiterer Trend, der sich auf die Entwicklung traditioneller SAN-Speicher auswirkt, ist die Entwicklung hin zu einer verbrauchsbasierten IT. Pay-per-Use-Hardwaremodelle sind darauf ausgelegt, Cloud-ähnliche Preisstrukturen für die Infrastruktur vor Ort bereitzustellen.

Die Hardware wird vor Ort bereitgestellt und im Wesentlichen von den Anbietern über ein variables monatliches Abonnement gemietet, das auf der Nutzung der Hardware basiert.

Unternehmen suchen nach Alternativen zum direkten Kauf von Geräten, und das Marktforschungsunternehmen IDC berichtet, dass 61 % der Unternehmen eine aggressive Umstellung auf die Bezahlung der Infrastruktur auf Verbrauchsbasis planen. IDC prognostiziert, dass bis 2024 die Hälfte der Rechenzentrumsinfrastruktur als Service genutzt werden wird.

Die Akzeptanz der verbrauchsbasierten IT ist am stärksten bei der Speicherung und weniger bei der Datenverarbeitung. Gartner schätzt, dass bis 2025 mehr als 70 % der Speicherkapazität in Unternehmen als verbrauchsbasierte Angebote bereitgestellt werden. Das ist ein deutlicher Anstieg gegenüber weniger als 40 % im Jahr 2021.

Die Apex-Linie von Dell und die GreenLake-Plattform von HPE sind Beispiele für verbrauchsbasierte IT, und beide beinhalten Optionen für die Beschaffung von Speicher auf einer Pay-per-Use-Basis. Die Apex Data Storage Services von Dell beispielsweise bieten Unternehmen eine Auswahl von drei Leistungsstufen für Block- und Dateispeicher.

Die Abonnements sind mit einer Laufzeit von einem oder drei Jahren erhältlich, und die Kapazität beginnt bereits bei 50 Terabyte.

*Ann Bednarz schreibt, verteilt und redigiert Artikel, die sich an IT-Experten in der Wirtschaft richten.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*