Neue Antriebe - was bringt uns der kommende Tag?


    Wenn sie im Herbst Hühner in der Landwirtschaft betrachten, dann kündigen in der IT-Branche zu dieser Zeit traditionell neue Artikel an. Und obwohl es bis zum Ende des Herbstes immer noch Chancen auf interessante Ankündigungen gibt, reicht die bereits angekündigte durchaus aus, um sie für bemerkenswert zu erklären. Darüber hinaus sind einige Trends sehr merkwürdig.

    Auf den ersten Blick ist alles ziemlich offensichtlich: Die Festplattenhersteller veranstalteten ein weiteres Volumenrennen und kündigten begeistert Modelle mit 6, 8 und sogar 10 TB an. Aber alles liegt im Detail und genauer gesagt in den Einzelheiten der Verwendung dieser Scheiben. Machen Sie sofort eine Reservierung, damit wir über die Serveraspekte der Verwendung von Datenträgern sprechen können.

    Was steckt also im Detail?


    Zunächst ein paar Worte zum allgemeinen Trend: Alle wenigen verbleibenden Festplattenhersteller erweitern ihre Produktpalette fleißig. In jüngerer Zeit war die Auswahl einfach: Zusätzlich zum Volumen reichte es aus, die Rotationsgeschwindigkeit der Platten und der Schnittstelle zu bestimmen, wonach die Auswahl auf eine oder zwei Serien reduziert wurde. Was jetzt Unternehmen, Cloud, AV, NAS, Grün, Leistung. Der Grund für diese Vielfalt ist einfach: Die Disc-Hersteller wenden sich von der Universalität ab, um ihre eigenen Produktionskosten zu senken, und belassen nur den minimalen Funktionsumfang, der für die Discs erforderlich ist. Nun, ein Bonus dieses Ansatzes ist der Sturm von Marketingmaterialien, die sich kontinuierlich auf den Benutzer ausbreiten.

    Nun lasst uns über die Einzelheiten sprechen. Beginnen wir mit WD.


    Wd ae

    Bevor die Benutzer Zeit hatten, über die Red Pro-Serie zu diskutieren, die für einen sehr engen Sektor des "nicht sehr großen NAS" -Markts gedacht war, brachte das Unternehmen die absolut wunderbare Ae-Serie auf den Markt, die die vierte Serie von Datenträgern für Rechenzentren wurde. Das „Wunder“ der Serie ist, dass das Volumen der Festplatte (und es ist bislang nur eines in der Serie) schwankt und derzeit zwischen 6 und 6,5 TB liegt. Soweit sie die Party machen konnten, taten sie es. Offensichtlich kann eine solche ungewöhnliche Lösung nur in „Mengen“ oder in Chargen und überhaupt nicht in „Teilen“ verkauft werden, da die Käufer sonst nicht verstehen, warum ein Nachbar mehr für dasselbe Geld hat. Der Hersteller selbst spricht von den Parteien "aus zwanzig Scheiben".

    Das zweite interessante Merkmal dieser Scheiben war, für welche Belastungen sie ausgelegt sind. Pressemitteilung öffnenund lesen Sie, dass MTBF nur 500.000 Stunden beträgt - zwei- bis viermal weniger als normalerweise für Server-Festplatten angegeben. Das Interessanteste ist jedoch in der Nähe: Für dieses Laufwerk wird eine jährliche Last von 60 TB angenommen. Ja, ja, kein Fehler, 10 Umschreibungen des Gesamtvolumens pro Jahr.


    Festplattenregal ETegro Fastor JS200 G3

    Die Antwort auf diese Werte ist einfach: Die Festplatte ist so konzipiert, dass sie kalte, man könnte sogar sagen, Eisdaten speichert. Tatsächlich haben wir eine Festplatte, die Bandbibliotheken ersetzen soll und deren Aufgabe es ist, 95% der Zeit in den Ruhezustand zu versetzen. Der Grund für diese Umstellung waren die Kosten für die Datenspeicherung, die auf Festplatten mit 7200 U / min etwa 5 bis 6 Cent pro Gigabyte betragen. Dies ist immer noch teurer als das Speichern von Daten auf Bändern, aber für die meisten für den Preis bereits einigermaßen erschwinglich. Wenn der Datenzugriff auf ein Band höchstens einige Sekunden dauert, können die Daten in weniger als hundert Millisekunden von einer Festplatte in einem Festplattenfach abgerufen werden. Die Anzahl der Festplatten lässt sich problemlos erhöhen und das Fach um mindestens ein ganzes Rack erweitern.


    Seagate Enterprise Capasity, 8 TB


    HGST, 10 TB Die
    folgende "Interessantheit" wurde uns von Seagate und HGST zur Verfügung gestellt. Die ersten gaben an, dass sie bereits 8-TB-Festplatten ausgeliefert haben, und die zweiten gaben an, dass Sie, wenn Sie ihre proprietäre Technologie , die bereits in den Ultrastar-Serien He6 und He8 zum Befüllen von Festplatten mit Helium verwendet wird, hinzufügen , auch 10 TB von einer Festplatte mit Standardgröße erhalten können. Was diese beiden Innovationen verbindet, ist die Verwendung der Shingled Magnetic Recording (SMR) -Technologie.


    Die Essenz gekachelten Schreibens

    Denken Sie daran, dass die SMR-Technologie die Tatsache ausnutzt, dass die Breite des Kopfes zum Einlesen von Discs geringer ist als die des Kopfes zum Beschreiben. Aus diesem Grund können Sie Spuren mit Überlappung aufnehmen, wobei nur ein relativ enger Bereich auf der Oberfläche jeder Spur verbleibt, der für ein zuverlässiges Lesen ausreicht. Gleichzeitig wird die Aufzeichnung von Spuren mit großer Breite und hohen Leistungsfeldern durchgeführt. In der Summe können Sie auf diese Weise die Aufzeichnungsdichte erhöhen, indem Sie die Lücke zwischen den Spuren unter Beibehaltung der Zuverlässigkeit beseitigen.

    Es wird schon sehr lange darüber gesprochen, aber alles hängt mit der Tatsache zusammen, dass 2015 das Jahr seiner Veröffentlichung sein wird. Dies ist lange her und reicht aus, um zum Beispiel an diesen ziemlich alten Zeitplan zu erinnern:


    Entwicklung von Festplattentechnologien

    Die Technologie selbst ist sehr schön, da Sie mit ihr die Dichte erhöhen können, ohne die Produktionsausrüstung radikal zu verändern, und dabei den gleichen Weg einschlagen müssen wie beim Einlegen von Festplatten mit 4-kB-Sektoren (Advanced Format). Es hat jedoch einen Nachteil: Sobald Sie die Daten ändern müssen, dh in dem Bereich, in dem sich Daten befinden, einen Datensatz erstellen, stoßen Sie auf die Tatsache, dass dadurch genau diese benachbarten Daten gelöscht werden.


    Overlay-Aufnahmebereich

    Der Ausweg aus dieser Situation liegt auf der Hand: Die Fliesen werden mit Bändern aus mehreren Bahnen verlegt. Und zwischen den Bändern entsteht eine Standardspurlücke. Und wenn Sie aufnehmen, müssen Sie einen Teil des Bandes lesen, ändern und dann zurückschreiben (von den geänderten Daten bis zum Ende des Bandes). Einerseits sollte das Band breit genug sein, damit der Effekt der überlagerten Kacheln auf den Spuren immer noch spürbar ist, und andererseits sollte das große Band länger gelesen, länger beschrieben und irgendwo aufbewahrt werden. Die Hersteller von Festplatten haben noch keine Implementierungsdetails bekannt gegeben, aber es wird geschätzt, dass die Bandgröße mehrere zehn Spuren beträgt und jede Spur für eine Minute jetzt mehr als 1 MB beträgt.

    Ein bisschen Mathematik zum Klären: Es ist nicht so schwierig, die ungefähre Datenmenge auf einer Spur zu ermitteln: Nehmen Sie die Plattengeschwindigkeit in MB / s, dividieren Sie sie durch die Rotationsgeschwindigkeit und multiplizieren Sie sie mit denselben 60 Sekunden pro Minute. Ermitteln Sie die Anzahl der pro Umdrehung gelesenen Megabyte, dh pro Spur. Für die aktuellen 4-TB-Laufwerke mit 7200 U / min betragen diese Werte also ca. 180 MB / s bzw. 1,5 MB pro Spur.

    Ich denke, jeder hat bereits verstanden, worauf wir hinaus wollen. Ja, wir erhalten eine schreckliche Antwort auf Datensätze mit zufälliger Adressierung von Daten. Im Durchschnitt werden wir mehrere zehn Megabyte lesen und diese dann zurückschreiben, was spürbare Sekundenbruchteile in Anspruch nimmt. Nicht so schlimm wie bei Bandlaufwerken, aber Sie müssen die üblichen Millisekunden vergessen. Beim Lesen wird natürlich alles ziemlich traditionell sein, was bedeutet, dass die Platten für jede Verwendung geeignet sind, was ein WORM-Schema (Write Once, Read Many) oder die Speicherung kalter Daten impliziert. Theoretisch können Plattenhersteller kreativ aus den Erfahrungen mit der Verwendung von SSDs lernen und TRIM und Adressumsetzung für sich anpassen, aber bisher sprechen sie nur auf theoretischer Ebene darüber.

    Eine solche Organisation von Festplatten hat eine weitere wichtige Konsequenz. Und es besteht darin, dass es den Anschein hat, als würde der Wechsel zu solchen Festplatten RAID-Arrays mit Prüfsummen zum Erliegen bringen. Die Größe der Aufzeichnungsblöcke ist dort viel kleiner als die Größe des Bandes im SMR, was bedeutet, dass wir bei jedem Überschreiben alter Daten eine ungeheure Strafe bekommen. Eine „hervorragende“ Ergänzung zu der Tatsache, dass RAID5 auf Arrays mit modernen 7.200 U / min-Laufwerken mit einer typischen Bitrate von nicht behebbaren Fehlern von 1 x 10 ^ 15 bereits eine unzuverlässige Speicheroption mit einer Arraygröße von mehr als 100 TB ist - ein solcher Fehler mindestens einmal Dies wird jedoch während der Wiederherstellung des Arrays passieren. Ein solches Volume ist jedoch nur ein Plattenfach. Die Kirsche auf dem Kuchen ist die absolut unmenschliche Zeit, um solche Arrays wieder aufzubauen, Währenddessen arbeitet das Festplattensubsystem mit reduzierter Leistung. Es besteht also die Möglichkeit, dass in naher Zukunft zahlreiche Plattenregale mit JBODs die beliebteste Art der Datenspeicherung sind, deren Daten von den Betriebssystemkräften dupliziert werden.

    Was das Festplattensubsystem für "heiße" Daten betrifft, so regiert hier seit vielen Jahren der SSD-Ball, und es werden keine radikalen Änderungen erwartet. Abhängig von der Datenmenge wird alles entweder von lokalen Laufwerken für den Server wie dem HGST Ultrastar SN100 oder der Intel SSD DC P3700 entschieden, glücklicherweise hat ihr Volumen bereits 2 TB erreicht, oder von ganzen Flash-Plattenregalen. Die ersten sind auf die NVMe-Benutzeroberfläche umgezogen, die minimale Verzögerungen und einen effizienteren Betrieb unter sehr hohen Lasten gewährleistet (weitere Informationen finden Sie in unserem vorherigen Artikel) Die Entwickler des NVMe-Protokolls verschwenden keine Zeit und haben bereits die Entwicklung des NVMe-over-Fabrics-Standards angekündigt, mit dem Sie alle Vorteile des NVMe-Protokolls bei der Arbeit mit Kommunikationsmedien wie Ethernet mit RDMA, InfiniBand und Intel Omni Scale Fabric nutzen können. Die Fibre Channel Industry Association (FCIA) hat übrigens bereits eine eigene Arbeitsgruppe für dieses Geschäft eingerichtet. Dies ist jedoch immer noch eine Frage der Ferne. In naher Zukunft war eine deutliche Umstellung auf den SAS 12G-Standard zu verzeichnen, bei der die Infrastruktur in Form von Controllern und Expandern aktiv zu werden begann.

    Jetzt auch beliebt: