SAN-Suppe. Erstellen eines virtuellen SAN unter Windows Server 2012 R2

Sie haben also gerade die Wiederherstellung des Systems nach einem Fehler abgeschlossen. Zum Glück hat es diesmal geklappt - die Gottesdienste sind gestiegen. Ihr Chef ist jedoch unzufrieden - er muss "Schlussfolgerungen ziehen und Maßnahmen ergreifen". Offensichtlich ist es an der Zeit, darüber nachzudenken, wie man weiterlebt. Es kann sich lohnen, vorhandene Ansätze zum Aufbau der Infrastruktur zu überarbeiten und Maßnahmen zu ergreifen, um die Ausfallsicherheit Ihres Produktionssystems sicherzustellen.


Haftungsausschluss: Ich entschuldige mich im Voraus bei den SAN-Spezialisten und der noblen Habrasociety für einige Freiheiten und Vereinfachungen, die ich bei der Vorbereitung des Materials vorgenommen habe. Es richtet sich an Benutzer, die noch nicht mit den in Windows Server 2012 R2 enthaltenen Speichertechnologien vertraut sind, sowie an Benutzer, die kein vollwertiges Datenspeichernetzwerk auf Basis von FC oder iSCSI bereitstellen können.

Wo soll ich anfangen? Ich würde annehmen, dass zwei Dinge erforderlich sind, um das Fehlertoleranzproblem zu lösen:

  1. Guter Plan.
  2. Geld (Schätzung).

Genau genommen gibt es auch den dritten Punkt - "direkte Hände", aber seine Erörterung geht über den Rahmen dieses Artikels hinaus.

Mit Geld ist alles klar. Was den Plan angeht, müssen wir eine solche Architektur entwickeln, dass das System beim nächsten Auftreten eines Fehlers (und das wird sicherlich passieren!) Stabil ist. Hier muss man einen kleinen Exkurs machen. Tatsache ist, dass es in der modernen Terminologie einige gut etablierte Konzepte gibt, die oft verwirrt sind. Hier sind sie:

Hochverfügbarkeit (HA)- die Fähigkeit, sowohl geplante als auch ungeplante Ausfallzeiten zu minimieren. Das heißt, wir (lesen Sie - der Kunde) sind uns im Voraus einig, dass es im Falle eines Ausfalls eine angemessene Zeit dauern wird, um auf das Backup-Gerät umzuschalten und die "ausgefallenen" Dienste darauf zu starten. Eine Trennung ist unvermeidlich. Typisches Beispiel: Hyper-V-Cluster.

Fehlertoleranz (Fehlertoleranz, FT)- die Fähigkeit, die Funktionsfähigkeit bei Ausfall einer oder mehrerer Komponenten aufrechtzuerhalten. Dies war der Zeitpunkt, an dem der Fehler auftrat, aber niemand außer dem Administrator bemerkte es nicht. Oder wenn wir einen der Knoten trennen, um eine geplante Wartung durchzuführen (z. B. das Installieren von Updates), und der zweite Knoten zu diesem Zeitpunkt die gesamte Last übernimmt. Die Verbindung wird nicht unterbrochen, Anwendungen sind verfügbar, die Reaktionszeit ist nur geringfügig verlängert. Typisches Beispiel: RAID Level 1.

Katastrophentoleranz- die Fähigkeit, den Dienst bei globalen Katastrophen relativ schnell zu starten. Dies ist, wenn alles auf einmal zusammenbrach. Als globale Kataklysmen geben sie gerne ein Beispiel für Hurrikane, Tsunamis und Überschwemmungen. In der Realität unseres Landes scheint ein Stromausfall im Rechenzentrum jedoch viel wahrscheinlicher zu sein: lokal (ein Bagger hat das Kabel verletzt) ​​oder der Lüfter sowie die Überflutung des Kellers. Beispiel: Backup-Rechenzentrum.

Warum ist Terminologie wichtig? Ja, weil sich die aufgeführten Aufgaben grundlegend unterscheiden. Dementsprechend sollten die Lösungsansätze unterschiedlich sein. Zunächst müssen wir entscheiden, was genau wir erhalten möchten: hohe Verfügbarkeit, Fehlertoleranz oder Katastrophentoleranz.

Im Zusammenhang mit diesem Artikel werden wir nur einen der drei Punkte behandeln, nämlich die Fehlertoleranz. Fairerweise sollte beachtet werden, dass das wirkliche Bedürfnis danach nicht oft auftaucht. Tatsächlich sind die meisten Kunden durchaus bereit, kleine Ausfallzeiten in Kauf zu nehmen, die im SLA vorgeschrieben sind, um erhebliche Kosteneinsparungen zu erzielen, da übermäßig teure „hochzuverlässige“ Lösungen abgelehnt werden. Wenn beispielsweise Excel für einige Minuten einfriert, stellt dies für das Unternehmen kein großes Problem dar. Es ist eher eine Ausrede, sich etwas aufzuwärmen und Kaffee zu trinken. Es gibt jedoch auch Dienste, die selbst bei einer kleinen Unterbrechung der Netzwerkverbindung äußerst empfindlich sind. Zum Beispiel DBMS und Hypervisors. Wenn Hyper-V die Konnektivität zu seinen virtuellen Festplatten verliert, auf denen virtuelle Maschinen ausgeführt werden, kann dies zu traurigen Konsequenzen führen.

Aus diesem Grund haben wir beschlossen, eine fehlertolerante Lösung zu entwickeln. Mit anderen Worten, es ist erforderlich, mögliche Fehlerquellen auf allen vorhandenen Ebenen zu entfernen: Server-, Netzwerk- und Datenspeicherebene. Wie wird das erreicht? Natürlich die Vervielfältigung von allem, was möglich ist: Server, Netzwerkschnittstellen, Datenübertragungskanäle und natürlich das Festplattensubsystem. Hier vor unseren Augen gibt es ein helles Bild von SAN. Was könnte für die Fehlertoleranz besser sein als die gute alte FC SAN-Hardware? Also das war's ... Nur diese Lösung hat einen Mörderfehler. Preis Die Kosten eines solchen Systems beginnen mit siebenstelligen Zahlen. Und die Obergrenze ist praktisch unbegrenzt. Deshalb können Sie es nicht einfach nehmen und kaufen - zumindest müssen Sie es budgetieren.

Darüber hinaus werden wir beim Kauf von teurem Eisen stark vom Hersteller abhängig, da die Kompatibilität mit seiner Ausrüstung von Drittherstellern bei weitem nicht gewährleistet ist. Die Skalierung solcher Systeme kann sehr viel Zeit in Anspruch nehmen. Tatsächlich hält niemand teure Komponenten im Lager - sie müssen bestellt und wochen- oder sogar monatelang gewartet werden. Und der Chef fordert "hier und jetzt". Und damit alles "wie eine Uhr" funktioniert. Und das bei minimalen Kosten!

Wo ist der Ausweg? Sind helle Träume von SAN nicht dazu bestimmt, wahr zu werden? Warten Sie ... Aber was ist ein SAN? Im Wesentlichen ist dies nur eine Möglichkeit, die Ressourcen von Hochleistungsspeichergeräten auf Serverebene gemeinsam zu nutzen. Es war einmal eine nahezu unangefochtene Technologie für klassische SAN-Glasfasernetzwerke, bei der außergewöhnliche Leistung, Fehlertoleranz und Skalierbarkeit erforderlich waren. Die FC-Geschwindigkeit war mit 100 MBit / s eine Größenordnung höher als das typische Ethernet.

Mit der Zeit tauchten jedoch Ethernet-Netzwerkadapter mit 1 und 10 Gbit auf, und es entstanden Software- und Hardwaretechnologien zur Erhöhung der Netzwerkbandbreite (NIC-Teaming, Datenkomprimierung usw.), die die Vorteile von FC etwas reduzierten und zu einem explosiven Wachstum der iSCSI-Schnittstelle führten. In Bezug auf Fehlertoleranz und Skalierbarkeit sind hier Fortschritte zu verzeichnen. Beispielsweise gab es Optionen für die Implementierung von SAN auf der Basis von Speichern mit einer SAS-Schnittstelle, die im Allgemeinen ursprünglich für die direkte Verbindung des Speichers mit einem Server vorgesehen war - DAS. Fakt ist, dass die SAS-Schnittstelle neben hohen Geschwindigkeiten (6-12 Gbit / s) einen weiteren wesentlichen Vorteil hat - sehr geringe Latenzen. Dies ist sehr wichtig für stark ausgelastete Hosts wie Hyper-V.

Was haben wir außer SAN? Und neben SAN gibt es nur NAS. Wenn wir SAN und NAS vergleichen, ist der Hauptunterschied zwischen dem ersten und dem zweiten die Arbeit auf Blockebene. Das Hostsystem kann logische Partitionen im SAN erstellen, formatieren und als normale lokale Festplatten verwenden. NAS arbeitet auf Dateisystemebene und verwendet Dateiübertragungsprotokolle wie SMB oder CIFS. Daher ist das NAS natürlich billig und einfach, aber ach, sehr langsam. Und deshalb ist es für hochbelastete Produktionssysteme sinnlos.

Aber ist es irgendwie möglich, die hohe Geschwindigkeit und Zuverlässigkeit des SAN mit der Einfachheit der Implementierung und der Verfügbarkeit von NAS zu kombinieren? Was passiert, wenn ich versuche, einen Teil der SAN-Funktionalität programmgesteuert zu implementieren? Anscheinend haben die Ingenieure eines bescheidenen Unternehmens aus Redmond diese Überlegungen angestellt, als sie ihre neue Technologie für den Markteintritt vorbereiteten. Infolgedessen haben sie wirklich etwas, das formal an SAN erinnert. Aber es ist um ein Vielfaches billiger. Es wird uns angeboten, sehr kostengünstige und erschwingliche Komponenten für die Zubereitung eines Gourmet-Gerichts namens "Scale-Out File Server" zu verwenden, d. H. skalierbarer Dateiserver. Das Wort „skalierbar“ spiegelt meines Erachtens das Wesentliche nicht ganz genau wider, da sich der Server zunächst als fehlertolerant herausstellte.

Daher bereiten wir heute „Suppe aus SAN“ auf der Basis von Microsoft Windows Server 2012 R2-Technologien vor.
Als Zutaten benötigen wir:

  • Server ohne Festplatten (nur kleine "Spiegel" für das System) - 2 Stk .;
  • günstiges JBOD-Plattenregal mit zwei SAS-Schnittstellen - 1 Stk .;
  • HDD SAS - mindestens 10 Stück (besser - mehr);
  • SSD SAS - mindestens 2 Stück;
  • Netzwerkadapter 1-10 GBit (besser - mit RDMA-Unterstützung) - 2-4 Stk .;

Als Gewürz verwenden wir die empfohlenen Gewürze: Storage Spaces, Tiering, SMB Direct, SMB Multichannel, CSV. Vorbereitungszeit: 1-1,5 Stunden bei Vorhandensein von Erfahrung oder 1-2 Tage ohne.

Ein bisschen Theorie


Windows Server 2012 und Windows 8 haben eine interessante Technologie namens Storage Spaces eingeführt. Es soll von der physischen Ebene des Festplattensubsystems abstrahieren. Tatsächlich handelt es sich um einen Betriebssystemtreiber, der sich hinter dem Partitionsmanager und vor dem Datenträgermanager befindet und es Ihnen ermöglicht, den Blockspeicher zu virtualisieren und ihn vor dem Betriebssystem zu verbergen. Dies wird erreicht, indem physische Festplatten in Pools gruppiert und virtuelle Festplatten basierend auf Pools (LUNs in SAN-Terminologie) erstellt werden. Alle Anwendungen werden sich daher speziell mit virtuellen Laufwerken befassen, ohne zu wissen, woraus sie bestehen. Aber warten Sie ... noch einmal virtuelle Festplatten? Tatsächlich wurde diese Technologie unter dem Namen „Dynamic Disks“ bereits im Jahr 2000 von Microsoft (genauer gesagt von Veritas lizenziert) implementiert - als Teil von Windows 2000!

So einfach ist das nicht ... Im Gegensatz zu dynamischen Festplatten ist Festplattenspeicher eine viel intelligentere Technologie, wie wir später sehen werden. In der Zwischenzeit klären wir die Begriffe:

Speicherpools - eine Sammlung physischer Festplatten, mit denen Sie Festplatten kombinieren, die Kapazität flexibel erhöhen und die Verwaltung delegieren können.

Speicherplätze - virtuelle Festplatten, die aus freiem Speicherplatz in einem Speicherpool erstellt wurden. Zu den Speicherplatzattributen gehören Ausfallsicherheit, Speicherebenen, feste Bereitstellung und präzise administrative Kontrolle.

Clustered Storage Spaces - die gleichen Speicherplätze auf gemeinsam genutztem Speicher - was wir brauchen!

Wie erstelle ich eine virtuelle Festplatte? In unserem Fall müssen wir zunächst physische SAS-Festplatten in einem Pool zusammenfassen - Festplatte und SSD. Im Allgemeinen können Sie Festplatten mit verschiedenen Schnittstellen zusammenfassen: SATA, SCSI und sogar USB. Für die Bereitstellung eines Failoverclusters (Scale-Out File Server) sind jedoch nur SAS-Laufwerke geeignet. Das Kombinieren von Datenträgern zu einem Pool bereitet keine Schwierigkeiten und ist mit dem Assistenten in nur zwei Klicks erledigt. Natürlich sollten sich auf den verbundenen Festplatten keine Partitionen befinden, da sie sonst gelöscht werden müssen. Durch das Kombinieren der Datenträger zu Pools werden sie gruppiert. Sie müssen dem Betriebssystem aber auch erklären, was als Nächstes zu tun ist. Jetzt können Sie eine virtuelle Festplatte (LUN) aus dem Festplattenpool erstellen. Mithilfe der Storage Spaces-Technologie können Sie drei Optionen für virtuelle Festplatten erstellen, die RAID-Levels ähneln:

  • Einfach (analog zu RAID0) - nur für Tests empfohlen;
  • Spiegelung (analog zu RAID1) - empfohlen für Workloads;
  • Parität (analog zu RAID5) - empfohlen zum Erstellen von Partitionen mit Datenarchiven.

Wie beim Hardware-RAID können Sie eine oder zwei Festplatten in einem Hot Spare (Hot Spare) belassen. Die aufgeführten Funktionen werden in der Standard-GUI angezeigt. Wenn dies jedoch nicht ausreicht, können Sie mithilfe von PowerShell-Cmdlets noch schlauere Kombinationen erhalten, die beispielsweise RAID-Level 10 entsprechen.

Erlauben Sie, der Leser wird sagen, wenn dies Software-RAID ist, sollte es langsamer als Hardware arbeiten! Und er wird absolut recht haben. Ja, langsamer. Aber wie viel? Hier ist nicht alles so klar. Erstens, wie die Praxis zeigt, wird die Geschwindigkeit von Festplatten leicht durch ihre Anzahl kompensiert. Je mehr Festplatten wir bündeln, desto weniger fällt der Leistungsunterschied auf. Für industrielle Anwendungen wird die Verwendung von 12 Discs empfohlen. Zweitens gab es in Windows Server 2012 R2 ein großartiges Feature: die Kombination von SSD und HDD in einem einzigen Pool unter Bildung der sogenannten "Hybrid Pool" (Tiered Storage). In diesem Fall wird das System selbst die am häufigsten verwendeten Daten verfolgen und auf die schnellsten SSD-Festplatten verschieben (denken Sie daran, dass das System intelligent ist!). Darüber hinaus erfolgt das Verschieben von "heißen" Daten auf der SSD blockweise und nicht auf Dateiebene. Darüber hinaus können Sie mithilfe von PowerShell-Cmdlets explizit angeben, welche Dateien auf der SSD und welche Dateien auf der Festplatte abgelegt werden müssen. Und drittens unterstützen Storage Spaces die sogenannten "Rückschreib-Cache" (WriteBack Cache). Während kurzer Bursts von Schreibvorgängen fängt das System Daten ab und platziert sie in einem speziellen Bereich auf der SSD. Auf diese Weise wird der Leistungsabfall bei plötzlichen Lastspitzen ausgeglichen. Alles in allem - eine große Anzahl von Festplatten, ein Hybridpool und ein Write-Back-Cache - kann die Systemleistung erheblich steigern und die negativen Auswirkungen von Software-RAID minimieren. Um Speicherplatz zu sparen, unterstützt Storage Spaces die bekannte SAN-Technologie Thin Provisioning - für eine wirtschaftlichere Verteilung der Festplattenressourcen. Beachten Sie dies fairerweise

Mit Storage Spaces können wir daher Fehlertoleranz auf Speicherebene gewährleisten. Jetzt werden wir eine Ebene höher gehen. Server müssen geclustert sein. Microsoft hat diese Möglichkeit seit geraumer Zeit. Früher konnte ein solcher Cluster jedoch nur als hoch zugänglich bezeichnet werden (siehe Terminologie). Und erst mit der Veröffentlichung von Windows Server 2012 wurde es möglich, es wirklich fehlertolerant zu machen. Diese Funktion wird als "Scale-Out-Dateiserver" bezeichnet. An dieser Stelle sei daran erinnert, dass Dateicluster in einem von zwei Modi ausgeführt werden können:

  • "Aktiv - Passiv"; Failover mit Dienstunterbrechung - Failover.
  • "Aktiv - Aktiv"; transparentes Failover.

Im ersten Fall ist nur einer der Knoten aktiv - mit ihm werden Daten ausgetauscht und der zweite wird gehalten. Bei einem Ausfall des ersten Knotens übernimmt der zweite die gesamte Last. In diesem Fall tritt jedoch eine unvermeidliche Unterbrechung auf und der Dienst wird unterbrochen. Dies ist das Prinzip, nach dem der Dateicluster in Windows Server 2008 R2 funktioniert. Im zweiten Fall sind beide Knoten aktiv und können gleichzeitig Daten von Clients empfangen. Im Falle eines Ausfalls eines der Knoten tritt der Verlust der SMB-Sitzung nicht auf bzw. die Anwendung wird nicht unterbrochen. Diese Technologie wurde nur in Windows Server 2012 verwendet.

Damit ein solches gleichzeitiges Arbeiten mit dem Speicher jedoch möglich wurde, war eine andere Technologie erforderlich, die als Cluster Shared Volume (CSV) bezeichnet wurde. Ohne auf Details einzugehen, handelt es sich um ein logisches Volume, das speziell für die gleichzeitige Arbeit mit mehreren Knoten in einem Cluster vorbereitet wurde.

Und was ist mit der Netzwerkebene? Hier hält Microsoft einige angenehme Überraschungen bereit. Das erste ist SMB Direct auf Basis der RDMA-Technologie. Einfach ausgedrückt handelt es sich hierbei um eine Technologie für den direkten Zugriff auf den Speicher über eine Netzwerkschnittstelle, ohne dass ein zentraler Prozessor erforderlich ist. Wenn diese Funktion aktiviert ist, arbeiten Netzwerkadapter tatsächlich mit der Schnittstellengeschwindigkeit und bieten eine hohe Bandbreite und eine extrem schnelle Antwort auf Netzwerkabfragen, was zu einem enormen Leistungsgewinn bei Workloads wie Hyper-V und SQL Server führt. Angenommen, die Arbeit mit einem Remote-Dateiserver ähnelt der Arbeit mit lokalem Speicher. Obwohl Netzwerkadapter mit RDMA-Unterstützung immer noch recht teuer sind, sinken ihre Kosten ständig (zum Zeitpunkt des Schreibens dieses Artikels sind es etwa 20 tr).

Die zweite Überraschung heißt SMB Multichannel. Wenn zwei Netzwerkadapter auf der Load-Consumer-Seite (z. B. SQL Server) und auf der Empfängerseite (Dateicluster) installiert sind, wird eine Mehrkanal-SMB-Verbindung zwischen dem Client und dem Server erstellt. Das heißt, wenn beispielsweise eine Datei über das Netzwerk kopiert wird und während des Kopiervorgangs etwas mit einem der Netzwerkadapter passiert, wird der Vorgang nicht unterbrochen - die Datei wird weiterhin kopiert, als wäre nichts geschehen. Führen Sie das PowerShell-Cmdlet Get-SmbMultichannelConnection aus, um zu überprüfen, ob der SMB-Mehrkanal verfügbar ist. Sie werden so etwas sehen:

Wie Sie sehen, wird die Verbindung über zwei Netzwerkschnittstellen gleichzeitig hergestellt.

Schließlich optimiert das SMB 3.0-Protokoll den Lastausgleich zwischen Knoten. Nur für die Konfiguration von Scale-Out File Server.

Nun, da wir uns kurz mit Technologie befasst haben, ist es Zeit, mit dem Üben fortzufahren. Zur Vereinfachung der Aufgabe werden wir einen Cluster mit zwei Knoten erstellen, obwohl nichts uns daran hindert, einen ausfallsicheren Dateicluster mit bis zu 8 Knoten zu erstellen. Wir beschreiben das Vorgehen von Anfang an und setzen es um.

Vorarbeiten


Also nehmen wir ein Plattenregal im JBOD-Modus. Wir füllen es mit Festplatten, von denen mindestens zwei SSDs sein sollten. Der Korb sollte über zwei SAS-Expander mit jeweils zwei Steckplätzen verfügen. Durch sie verbinden wir den Korb mit zwei Servern, vorzugsweise denselben. Hierfür sind einfache Single-Unit-Server durchaus geeignet. Auf Servern installieren wir reguläre SAS-HBAs als Controller.



Weiter zu den Artikeln:


  1. Installieren Sie auf jedem Server-Betriebssystem Windows Server 2012 R2.
  2. Wir konfigurieren Netzwerkverbindungen, installieren Updates, geben Server in die Domain ein.
  3. Fügen Sie die Dateiserverrolle auf jedem Server hinzu.
  4. Öffnen Sie auf einem der Server die Cluster Failover Manager-Konsole.
  5. Mit dem Assistenten erstellen wir einen Standardcluster mit einem Failovercluster (Failovercluster).
  6. Erstellen Sie einen neuen Pool: Speicher -> Pools -> Erstellen Sie einen neuen Pool.
  7. Wir fügen dem Pool SSD- und HDD-Festplatten hinzu und geben bei Bedarf Zugriffsparameter an.
  8. Erstellen Sie eine virtuelle Festplatte: Pool -> Rechtsklick -> Neue virtuelle Festplatte.
  9. Mit dem Assistenten legen wir den Typ des Festplattensubsystems (Mirror) fest.
  10. Erstellen Sie mit dem Assistenten ein Volume auf der Festplatte, weisen Sie einen Buchstaben zu und formatieren Sie ihn in NTFS.
  11. Erstellen eines freigegebenen Cluster-Volumes (CSV): Wählen Sie das gewünschte Laufwerk aus -> Zu freigegebenen Cluster-Volumes hinzufügen.
  12. Definieren Sie die Rolle: Rollen -> Rolle konfigurieren -> Dateiserver -> Skalierbarer Dateiserver.
  13. Um nicht zu warten, setzen wir den DNS-Resolver-Cache zurück (ipconfig / flushdns).
  14. Wählen Sie eine Rolle -> Dateifreigabe hinzufügen -> SMB-Freigabe -> Anwendungsprofil.
  15. Wir geben den Speicherort der freigegebenen Ressource an und geben ihm einen Namen.




Das ist alles. Das Endergebnis unserer Bemühungen war die Erstellung einer Dateisphäre entlang eines Standard-UNC-Pfads, z. B .: \\ ScaleOutFS \ Share. Jetzt können wir wichtige Dateiressourcen darauf platzieren, z. B. virtuelle Hyper-V-Festplatten oder SQL Server-Datenbanken. Somit verfügen wir über ein vorgefertigtes Speichernetzwerk. Der grundlegende Unterschied zu herkömmlichen SANs besteht darin, dass SMB 3.0 für die Verbindung verwendet wird und nicht einige der Blockprotokolle (iSCSI / FC), was in gewissem Sinne sogar von Vorteil ist. Möglicherweise möchten Sie die Hyper-V-Rolle direkt auf dem Clusterserver bereitstellen, indem Sie virtuelle Laufwerke in den freigegebenen Speicher stellen. Muss trauern. Diese Konfiguration wird leider noch nicht unterstützt. Für Hyper-V- und SQL Server-Rollen müssen Sie separate Server anheben,

Es bleibt eine Bestandsaufnahme ...

Fehlertoleranz
Es wird auf allen Ebenen bereitgestellt: Datenspeicher, Server, Netzwerkinteraktion.

Leistung
Wird von mehreren Faktoren abhängen. In einem typischen Fall ist es mit der Leistung von iSCSI-basierten Lösungen vergleichbar. Und wenn alle verfügbaren Funktionen einschließlich der RDMA-Technologie genutzt werden, ist die Speicherbandbreite sogar noch höher als bei einer FC-Verbindung (bis zu 56 GBit / s).

Skalierbarkeit
Auf der Ebene des Festplattensubsystems wird dies durch einfaches Hinzufügen von Festplatten oder Kaskadieren von JBOD-Repositorys bereitgestellt. Auf Serverebene durch Hinzufügen von Knoten zum Cluster. Auf Netzwerkebene: Hinzufügen von Netzwerkadaptern, Kombinieren dieser zu Gruppen (NIC-Teaming) oder Ersetzen durch andere mit größerer Bandbreite.

Sicherheit
Festplattenpools können mithilfe von Zugriffssteuerungslisten (Access Control Lists, ACLs) gesteuert und Berechtigungen an Administratoren delegiert werden. Das Speichermanagement kann vollständig in ADDS integriert werden.

Kosten
Selbstverständlich sind die Kosten für die fertige Lösung trotz aller Funktionen dieser Technologie um ein Vielfaches niedriger als für das herkömmliche SAN.

Aber was ist mit den Fehlern? Natürlich sind sie auch verfügbar. Beispielsweise können Speichersysteme und Server nicht über einen beträchtlichen Abstand voneinander entfernt sein, wie im Fall von FC oder iSCSI. Sie können keine komplexe Topologie erstellen. SAS-Switches sind noch selten. Darüber hinaus unterstützt SAS keine Hardware-Replikation, sondern muss per Software implementiert werden. Daher ist das oben beschriebene Konzept kein Allheilmittel, sondern nur eine Alternative zu herkömmlichen Speichersystemen. Wenn Sie bereits ein bereitgestelltes Hardware-SAN haben, ist dies in keiner Weise ein Grund, es abzulehnen. Eisen muss das investierte Geld herausarbeiten. Wenn Sie jedoch nur an die Architektur des zukünftigen Datenspeichersystems denken, ist es sinnvoll, diese Option aus technischer und wirtschaftlicher Sicht als fundiert zu betrachten. Und zum Schluss möchte ich noch erwähnen dass „SAN-Suppe“ nicht nur mit Microsoft-Technologien zubereitet werden kann. Wenn Sie über iSCSI-Speicher verfügen, können Sie Produkte wie StarWind iSCSI SAN, VMware Virtual SAN, OpenFilter, FreeNAS, Open-E DSS V6 usw. verwenden.

Guten Appetit!
Bei der Erstellung des Artikels wurden Materialien aus dem Microsoft Virtual Academy- Portal verwendet .

Arsen Azgaldov, dpandme@gmail.com

Jetzt auch beliebt: