Zukünftige Infrastrukturen für Rechenzentren

    Universelle Architekturen für Rechenzentren (solche Rechenzentren werden heute noch häufig eingesetzt) ​​haben ihre Aufgaben in der Vergangenheit gut bewältigt. In letzter Zeit haben die meisten von ihnen jedoch ihre Grenzen in Bezug auf Skalierbarkeit, Leistung und Effizienz erreicht. Die Architektur solcher Rechenzentren verwendet normalerweise das Prinzip der aggregierten Zuweisung von Ressourcen - Prozessoren, Festplatten und Netzwerkkanalbreiten.

    Gleichzeitig tritt die Änderung des Ressourcenvolumens (Zunahme oder Abnahme) in solchen Datenzentren diskret mit vorbestimmten Koeffizienten auf. Mit einem Faktor von 2 können wir beispielsweise eine solche Reihe von Konfigurationen erhalten:
    • 2CPU, 8 GB RAM, 40 GB Speicher;
    • 4 CPU, 16 GB RAM, 80 GB Speicher;
    • 8 CPU, 32 GB RAM, 160 GB Speicher;
    • ...
    Für eine Vielzahl von Aufgaben erweisen sich diese Konfigurationen jedoch als wirtschaftlich ineffizient, häufig haben Kunden eine Zwischenkonfiguration, beispielsweise 6CPU, 16 GB RAM und 100 GB Speicher. Wir sind daher der Ansicht, dass der oben genannte universelle Ansatz für die Zuweisung von Rechenzentrumsressourcen ineffektiv ist, insbesondere bei intensiver Arbeit mit Big Data (z. B. schnelle Daten, Analysen, künstliche Intelligenz, maschinelles Lernen). In solchen Fällen möchten Benutzer eine flexiblere Kontrolle über die von ihnen verwendeten Ressourcen haben. Sie benötigen die Fähigkeit, die verwendeten Prozessoren, Speicher- und Datenspeicher sowie Netzwerkkanäle unabhängig voneinander zu vergrößern. Das ultimative Ziel dieser Idee ist die Schaffung einer flexiblen Komponenteninfrastruktur.



    Abb. 1. Datenzentrierte Rechenzentrumsarchitektur

    Als Reaktion auf diese Anforderungen wurden hyperkonvergente Infrastrukturen (HCI, Hyper Converged Infrastructure) des Rechenzentrums mit allen Rechenressourcen, Datenspeichersystemen und Netzwerkkanälen zu einem einzigen virtualisierten System kombiniert (Abb. 1). Diese Struktur erfordert jedoch auch die Installation zusätzlicher Server, um die Skalierbarkeitsgrenzen zu erweitern (Hinzufügen neuer Speichersysteme, Speicher oder Netzwerkkanäle). Dadurch wurde ein Ansatz geschaffen, der auf der Erweiterung der HCI-Infrastruktur mit festen Modulen basiert (die jeweils Prozessoren, Speicher und Datenspeicher enthalten), die letztendlich nicht die Flexibilität und vorhersehbare Leistung bieten, die in modernen Rechenzentren so gefragt ist.

    HCI wird bereits durch Komponenten-disaggregierte Infrastrukturen (CDI, Composable-Disaggregated Infrastructures) ersetzt, die die Einschränkungen konvergenter oder hyperkonvergenter IT-Lösungen überwinden und eine höhere Flexibilität für das Rechenzentrum bieten.

    Darstellung der Komponenten-disaggregierten Infrastruktur

    Um die mit der Allzweck-Rechenzentrumsarchitektur verbundenen Probleme (festes Verhältnis von Ressourcen, Unterauslastung und redundante Redundanz) zu überwinden, wurde zunächst eine konvergente Infrastruktur entwickelt, die aus vorkonfigurierten Hardwareressourcen in einem einzigen System besteht. Rechenressourcen, Speichersysteme und Netzwerkinteraktionen sind diskret und die Verbrauchsmengen werden programmgesteuert konfiguriert. Anschließend wurden konvergente Strukturen in hyperkonvergent (HCI) umgewandelt, in dem alle Hardwareressourcen virtualisiert und die Zuordnung der erforderlichen Rechenressourcen, Speicher- und Netzwerkkanäle auf Softwareebene automatisiert wurde.

    Obwohl HCI alle Ressourcen in einem einzigen virtualisierten System vereint, hat dieser Ansatz auch Nachteile. Um dem Client beispielsweise wesentlich mehr Speicher, RAM oder den Netzwerkkanal zu erweitern, sind in der HCI-Architektur zusätzliche Prozessormodule erforderlich, auch wenn diese nicht direkt für Rechenvorgänge verwendet werden. Infolgedessen haben wir die Situation, dass bei der Schaffung eines Rechenzentrums, das im Vergleich zu früheren Architekturen flexibler ist, immer noch unflexible Gebäudeelemente verwendet werden.

    Wie IT-Umfragen in mittelgroßen und großen Unternehmensrechenzentren zeigen, werden etwa 50% der gesamten verfügbaren Speicherkapazität für die tatsächliche Verwendung zugewiesen, während nur die Hälfte des zugewiesenen Speichervolumens von Anwendungen verwendet wird, die CPU-Zeit auch von etwa 50%. Daher führt der Ansatz bei Verwendung fester Struktursysteme zu einer unzureichenden Auslastung und bietet nicht die erforderliche Flexibilität und vorhersagbare Leistung. Um diese Probleme zu lösen, wurde ein disaggregiertes Modell erstellt, das aus separaten Funktionsmodulen mit Hilfe offener API-Softwaretools einfach zusammengesetzt werden kann.

    Component-Disaggregated Infrastructure (CDI) ist eine Rechenzentrumsarchitektur, in der physische Ressourcen - Rechenleistung, Speicher und Netzwerkverbindungen - als Services behandelt werden. Die Bereitstellung von Benutzeranwendungen mit allen erforderlichen Ressourcen für die Ausführung ihrer aktuellen Arbeitslast erfolgt in Echtzeit, wodurch eine optimale Leistung im Rechenzentrum erreicht wird.
    Bauteil-disaggregiertes Modell gegen Hyperkonvergenz

    Virtuelle Server in der nach Komponenten getrennten Infrastruktur (Abb. 2) werden durch Zusammenstellen von Ressourcen aus unabhängigen Pools von Computersystemen, Speichern und Netzwerkgeräten erstellt, im Gegensatz zu HCI, bei dem physische Ressourcen an HCI-Server gebunden sind. Auf diese Weise können CDI-Server erstellt und bei Bedarf entsprechend den Anforderungen einer bestimmten Arbeitslast neu konfiguriert werden. Mithilfe des API-Zugriffs auf Virtualisierungssoftware kann eine Anwendung alle erforderlichen Ressourcen anfordern und in Echtzeit eine sofortige Neukonfiguration des Servers durchführen, ohne dass ein menschlicher Eingriff erforderlich ist - ein echter Schritt in Richtung eines selbstverwalteten Rechenzentrums.


    Abb. 2: Hyperkonvergiertes Modell (HCI) und komponentendisaggregiert (CDI).

    Ein wichtiger Teil der CDI-Architektur ist eine interne Kommunikationsschnittstelle, die die Trennung (Disaggregation) der Speichergeräte eines bestimmten Servers von seiner Rechenleistung und dessen Bereitstellung durch andere Anwendungen ermöglicht. Als Hauptprotokoll wird hier NVMe-over-Fabrics verwendet . Es bietet die geringste Verzögerung der Datenübertragung zwischen Anwendungen und Speichergeräten direkt. Dadurch kann CDI den Anwendern alle Vorteile eines direkt verbundenen Speichersystems (geringe Latenz und hohe Leistung) bieten und durch die gemeinsame Nutzung von Ressourcen Effizienz und Flexibilität bieten.


    Abb. 3. NVMe-over-Fabrics-Struktur.

    Die NVMe-Technologie selbst (Non-Volatile Memory Express) ist eine optimierte, leistungsstarke Schnittstelle mit niedriger Latenzzeit, die eine Architektur und eine Reihe von Protokollen verwendet, die speziell für die Verbindung von SSDs in Servern über den PCI Express-Bus entwickelt wurden. Für CDI wurde dieser Standard auf NVMe-over-Fabrics erweitert - über lokale Server hinaus.

    Diese Spezifikation ermöglicht Flash-Geräten die Kommunikation über ein Netzwerk (unter Verwendung verschiedener Netzwerkprotokolle und Übertragungsmedien - siehe Abbildung 3), wobei dieselbe hohe Leistung und Übertragungsverzögerung wie bei lokalen NVMe-Geräten bereitgestellt wird. Gleichzeitig gibt es praktisch keine Einschränkungen hinsichtlich der Anzahl der Server, die NVMe-over-Fabrics-Geräte gemeinsam nutzen können, oder der Anzahl solcher Speichergeräte, die für einen einzelnen Server verfügbar sein können.

    Die Anforderungen heutiger Big Data-intensiver Anwendungen übertreffen die Fähigkeiten herkömmlicher Rechenzentrumsarchitekturen, insbesondere in Bezug auf Skalierbarkeit, Leistung und Effizienz. Mit dem Aufkommen von CDI (Component Disaggregated Infrastructure) können Rechenzentrumsarchitekten, Cloud-Service-Provider, Systemintegratoren, Speichersoftwareentwickler und OEMs Speicher- und Computerdienste mit höherer Effizienz, Flexibilität, Effizienz und Skalierbarkeit bereitstellen, wobei die erforderliche SLA dynamisch für alle bereitgestellt wird Arbeitslasten.

    Jetzt auch beliebt: