Übergang zu 3D: Der Einfluss von Chiparchitektur und Schreibalgorithmen auf das SSD-Leben


    Obwohl seit dem Erscheinen der ersten SATA-SSD14 Jahre sind vergangen, viele Konsumenten gehören immer noch zu den Solid State Drives mit einer gewissen Skepsis. Der Hauptgrund für Misstrauen ist die begrenzte Lebensdauer des Flash-Speichers aufgrund der allmählichen Verschlechterung der Halbleiterchipstruktur, wodurch Geräte früher oder später ihre Fähigkeit verlieren, Informationen aufzuzeichnen und zu speichern. Detaillierte technische Spezifikationen verschärfen die Situation oftmals nur: Ist es für Kunden schwer zu verstehen, dass TBW 500 TB, das in der Beschreibung von Western Digital Blue 3D-NAND-SATA-SSD für zwei Terabyte aufgeführt ist, viel oder wenig ist? Wie lange hält eine solche Platte unter realen Arbeitsbedingungen und kann den wertvollsten Dateien vertraut werden? Versuchen wir, dies gemeinsam zu klären und darüber zu sprechen, wie zuverlässig moderner Flash-Speicher ist.

    Streng genommen wurde die Antwort auf die "Hauptfrage des Lebens, des Universums und all dessen" im Dezember 2014 erhalten, als die Jungs der Online-Publikation TechReport die insgesamt ein Jahr dauernden Tests von Consumer-SSDs abschlossen. Anhand der HyperX-, Corsair-, Kingston- und Samsung-Produkte haben sie überzeugend bewiesen, dass SSDs im realen Leben mehr als 1 Petabyte überschreiben. Solche Volumes sind nicht nur für einen normalen Benutzer, sondern auch für professionelle Content-Macher praktisch undenkbar: Das Laufwerk wird viel früher moralisch veraltet, als seine Ressource erschöpft ist.

    Es gibt jedoch eine wichtige Nuance: Vor vier Jahren waren MLC-NAND-Chips im Einsatz, die in jeder Zelle 2 Bit Informationen speichern konnten und mit einer 25-Nanometer-Prozesstechnologie hergestellt wurden. Zu dieser Zeit war dies ein guter Kompromiss zwischen superzuverlässiger SLC (Single-Level-Cell) und umfangreicheren und kostengünstigeren TLC (Triple-Level-Cell): Chips mit 2-Bit-Zellen sorgten für eine akzeptable Datenspeicherdichte von bis zu 5.000 Schreib- / Löschzyklen ( im Durchschnitt erreicht diese Zahl 3 Tausend). Was über ihre engsten Brüder nicht gesagt werden kann: Mit all den Vorteilen, die hohe Kapazität und niedrige Kosten einschließen sollten, waren TLCs viel weniger haltbar und nahmen in 1500.000 Programmier- / Löschzyklen kaum die Latte, während die meisten planaren Mikroschaltkreise kaum tausend aushalten.

    Der Hauptverantwortliche in dieser Situation war der Übergang zu einem 15-Nanometer-Prozess, der bei der Herstellung von Chips verwendet wird. Um zu verstehen, warum dies geschah, genügt es, sich zu erinnern, wie der NAND-Speicher funktioniert. Die Codierung von Informationsbits erfolgt durch Ändern der Ladung auf einem Floating Gate aufgrund des Quantentunnels von Elektronen durch eine dielektrische Schicht aufgrund der hohen elektrischen Feldstärke.


    Floating-Gate-Transistorschaltung

    Aus physikalischer Sicht handelt es sich um nichts anderes als um das Phänomen des reversiblen Lawinenabbaus. Durch die Beschleunigung in einem elektrischen Feld erhalten Elektronen ausreichend kinetische Energie, um die Ionisierung dielektrischer Moleküle zu beeinflussen, was dazu führt, dass ein Paar Elementarteilchen eine entgegengesetzte Ladung trägt, die ebenfalls durch ein elektrisches Feld beschleunigt werden, und der Prozess wiederholt sich, wobei die Anzahl der Ladungsträger exponentiell ansteigt (daher der Name ). Es ist leicht zu vermuten, dass solche Prozesse eine allmähliche Verschlechterung der dielektrischen Schichten verursachen, wodurch die Wahrscheinlichkeit eines Ladungsverlusts zu benachbarten Zellen steigt, was wiederum zu einer Beschädigung oder sogar zu einem vollständigen Verlust von Daten führt. Und der Übergang zu einer neuen Prozesstechnologie verschärft die Situation nur: Eine Abnahme der Dicke des Dielektrikums führt zu

    Wenn das Problem jedoch nur in diesem Fall bestand, würden normale Verbraucher und sogar Firmenbenutzer den Unterschied zwischen MLC und TLC einfach nicht bemerken, und bei den technischen Spezifikationen für SSD würden wir viel beeindruckendere Zahlen sehen. In Wirklichkeit erscheint ein völlig anderes Bild vor unseren Augen, und der Grund dafür ist die Flashchip-Architektur selbst und die Besonderheiten ihrer Arbeit: Einzelne Zellen werden zu Seiten und Seiten zu Blöcken zusammengefasst, während das Aufzeichnen von Informationen nur in leere Seiten und deren Löschen möglich ist Block für Block

    Was bedeutet das in der Praxis? Angenommen, wir haben einen teilweise gefüllten Block und möchten neue Daten in den Block schreiben. Wenn die Lautstärke geringer ist als der verbleibende freie Speicherplatz, erfolgt die Aufzeichnung sofort ohne weitere Manipulationen. Wenn nicht genügend Platz zur Verfügung steht, kommen komplexe mehrstufige Algorithmen ins Spiel. Betrachten Sie die Situation in der nachstehenden Abbildung.


    So werden Daten in den Flash-Speicher geschrieben: Die

    neuen Daten, die wir schreiben möchten, belegen zwei Seiten im Block, von denen jedoch nur eine frei ist: Obwohl die alte (gelb hervorgehobene) Seite zuvor vom Benutzer gelöscht wurde, sind die aufgezeichneten Informationen nicht verschwunden. Um Platz für neue Daten zu schaffen, initiiert der Controller eine Prozedur, die als "Garbage Collection" bezeichnet wird. Dabei werden nicht benötigte Daten entfernt und vorhandene neu verteilt. Dazu werden alle Seiten mit Ausnahme von unnötig in den zweiten freien Block kopiert, während die erste vollständig gelöscht wird. Dann werden die eigentlichen Seiten zurück in den ersten Block übertragen, aus dem zweiten gelöscht, und erst danach nehmen die neuen Daten ihren rechtmäßigen Platz ein.

    Im obigen Beispiel musste ich, um zwei Seiten zu schreiben, 2 Blöcke mit jeweils sechs Seiten vollständig überschreiben. In der Tat wird der Prozess der "Garbage Collection" viel komplizierter aussehen und die Anzahl der Umschreibzyklen wird dadurch wesentlich höher sein. Das reale Bild kann nur geschätzt werden, wenn die Schreibverstärkung (Write Amplification) bekannt ist, die angibt, wie oft die tatsächliche Belastung des Flash-Speichers die berechnete überschreitet. Dieser Indikator kann nur dann eins sein, wenn Informationen auf einer absolut sauberen, nur formatierten Diskette aufgezeichnet werden. In allen anderen Fällen variiert der Wert zwischen 2 und 25. Außerdem kann er bei identischen Laufwerken auf den ersten Blick erheblich abweichen hängt vom Modell der verwendeten Steuerung und den Eigenschaften der Firmware ab.

    Warum hat die drastische Zunahme der Speicherdichte die Zuverlässigkeit von 3D-NAND-Speichern nicht beeinflusst?


    Jetzt wissen wir, wie Flash-Speicher funktionieren und welche Faktoren die Zuverlässigkeit eines SSD-Laufwerks bestimmen. Es ist an der Zeit herauszufinden, welche Vorteile der Übergang von "flachen" Chips zu dreidimensionalen Chips bietet. Zunächst unterscheidet sich 3D NAND von seinen Vorgängern durch die Verwendung des "Charge Trap Flash" anstelle der üblichen Floating Gates. Wenn in letzterem Polysilizium mit Dotierungszusätzen zum Speichern von Ladungen verwendet wird, ist es in CTF ein isolierter Bereich aus nicht leitfähigem Material, dessen Rolle meistens SiN ist, nämlich Siliziumnitrid. Ein solcher Ansatz ermöglichte es, die Wahrscheinlichkeit eines Ladungsverlusts zu minimieren und dadurch die Stabilität der Zellen zu erhöhen.

    Die Architektur dreidimensionaler Speicherchips hat gegenüber dem Vorgänger ebenfalls erhebliche Änderungen erfahren, da nun jede Zelle eine zylindrische Struktur aufweist: Die äußere Schicht ist ein Steuergate und die innere Schicht ist ein Isolator. Da sich die Zellen nun übereinander befinden, bilden sie einen Stapel, in dem ein Kanal aus polykristallinem Silizium durchläuft. Es ist leicht zu verstehen, dass die Anzahl der Schichten in einem Chip die Anzahl der Zellen im Stapel bestimmt.


    3D-NAND-Chip-Zellenvorrichtung

    Diese Struktur reduzierte die Interzellenzuordnung und vereinfachte dadurch den Schreibalgorithmus: Da der Ladezustand nicht überprüft werden musste, wurde das Schreiben in die Zelle in einem Schritt ausgeführt. Ein weiterer wichtiger Nachteil: Für die Herstellung von 3D-NAND wurden Einlaufprozesse eingesetzt, obwohl die Packungsdichte der Zellen um ein Vielfaches erhöht wurde. So wurden beispielsweise auch 48-Layer-Chips (die dritte Generation des dreidimensionalen Flash-Speichers) mit einer 40-Nanometer-Prozesstechnologie hergestellt. Dies ermöglichte es nicht nur, ihre Zuverlässigkeit zu erhöhen, sondern auch die Produktionskosten zu senken, da die bestehenden Produktionslinien nur eine minimale Modernisierung benötigten und der Bedarf an Lithographie im tiefen Ultraviolettbereich vollständig verschwunden war.

    Wenn wir speziell über Western Digital-Produkte sprechen, verwendet die moderne WD Black SN750 NVMe-SSD , deren Verkaufsstart am 18. Januar 2019 begann, ein TLC-3D-NAND-BiCS (Bit Cost Scalable) mit 64 Schichten, das mit einer 28-Nanometer-Prozesstechnologie hergestellt wird. Neben der Erhöhung der Packungsdichte um das 1,4-fache (das Topmodell hat jetzt eine Kapazität von 2 TB, was doppelt so groß ist wie das Flaggschiff der vorherigen Generation), ist die Verwendung von U-förmigen Leitungen ein wichtiges Merkmal dieses Chips.


    3D-NAND-BiCS-Architektur

    Da sich der Schalttransistor und die Sourceleitung nun oben auf dem Kristall befinden, sind sie praktisch keinen Hochtemperatureinflüssen ausgesetzt, die bei Lese- / Schreibvorgängen zu Fehlern führen können, wodurch die Zuverlässigkeit von Solid-State-Laufwerken weiter erhöht werden konnte.

    Wie wirken sich Schreibalgorithmen auf die SSD-Lebensdauer aus?


    Oben haben wir bereits geschrieben, dass, egal wie robust und geschützt der Flash-Speicher selbst ist, seine Ressource verschwendet wäre, wenn sich die SSD-Entwickler nicht darum kümmern würden, effiziente Schreibalgorithmen zu erstellen. Um dieses Verfahren zu optimieren, werden zwei sehr effektive Techniken verwendet: SLC-Caching und Wear Leveling (Wear Leveling).

    Der erste Aspekt ist der Teil des verfügbaren Speicherarrays, dessen Größe vom Gesamtvolumen des Laufwerks abhängt (z. B. bei der Entwicklung der WD Blue 3D NAND-SSD)Wir gingen von der Berechnung von 4 GB Cache pro 250 GB Kapazität aus) werden in den SLC-Betriebsmodus übertragen, das heißt, in jeder Zelle wird nur ein Bit Information aufgezeichnet, wodurch sowohl die Leistung deutlich gesteigert als auch der Verschleiß verringert werden kann. SLC ist an der Aufzeichnung und Konsolidierung der auf der SSD gespeicherten Daten beteiligt, wodurch nicht nur die Operationsgeschwindigkeit erhöht werden kann, sondern auch die Abnutzungsrate der Zellen verringert wird. Die aktuellen Versionen der Western Digital-Solid-State-Laufwerke verwenden die nCache 3.0-Technologie, deren neueste Version die Direct-to-TLC-Funktion erhielt. Dadurch konnte ein Gleichgewicht zwischen Caching und Geschwindigkeit gefunden werden: Das Schreiben von Daten umgeht den Cache, wenn er überläuft oder wenn SLC- der Puffer erweist sich als unpraktisch. Dies half einerseits, den Cache zu entladen,


    Die Dynamik der Schreibgeschwindigkeit auf der SSD beim Füllen des SLC-Puffers

    Die Verschleißnivellierungstechnologie trägt dazu bei, dass alle vorhandenen Seitenblöcke so gleichmäßig wie möglich verwendet werden. Wie Sie wissen, verwendet jedes Betriebssystem einen logischen Mechanismus zum Adressieren von Datenblöcken (LBA), während der Controller selbst bereits mit physischen Adressen (PBA) arbeitet und diese mit logischen Adressen korreliert. Daher ist es unerheblich, wo sich die Fragmente der Dateien tatsächlich befinden. Daher können Sie eine Firmware schreiben, mit der sichergestellt wird, dass die Last gleichmäßig zwischen den Zellen verteilt wird.


    Durch den Ausgleich der Abnutzung wird eine gleichmäßige Belastung der Zellen sichergestellt.

    Im Allgemeinen ist der Algorithmus wie folgt. Sie haben eine brandneue SSD gekauft, und während dort noch freier Speicherplatz vorhanden ist, werden die Informationen in freien Blöcken aufgezeichnet. Beim Ausnutzen beginnen Sie, nicht mehr benötigte Dateien zu löschen, und der Speicherbereinigungsmechanismus bereinigt sie im Hintergrund. Sie werden jedoch nur für die Aufnahme verwendet, wenn auf der Festplatte keine Blöcke mehr vorhanden sind, die mindestens einmal keine Daten aufgezeichnet hätten. In der Realität ist natürlich alles viel komplizierter, aber die Bedeutung ändert sich nicht.

    Und hier sollten Sie eine weitere wichtige Anmerkung zu Western Digital-Produkten machen. Als wir uns für die Entwicklung des SSD-Marktes entschieden haben, haben wir zwei Möglichkeiten: Speicher und Controller von Drittanbietern zu kaufen, sich nur auf die Entwicklung und Optimierung von Mikroprogrammen zu konzentrieren oder die Produktion für einen vollen Zyklus anzupassen. Ein ähnliches Projekt von Grund auf zu starten, wäre unpraktisch, und selbst der Kauf von SanDisk hat uns einen Pfennig gekostet. Die investierten Mittel kamen jedoch voll zur Geltung: Durch die Steuerung der Produktion von Chips konnten wir die Firmware an die Merkmale der Mikroschaltkreise anpassen.

    Es versteht sich, dass das Aufzeichnen von Informationsbits in Flash-Speicherzellen ein viel komplizierterer Vorgang ist, als es auf den ersten Blick erscheinen mag: Es werden Hunderte verschiedener Parameter berücksichtigt, von denen die für die Ladungstransfer erforderliche Spannung und die Aufzeichnungszeit am wichtigsten sind. Wenn sich die Chips abnutzen, ändern sich auch ihre physikalischen Eigenschaften: Um Daten erfolgreich schreiben zu können, ist weniger Spannung erforderlich, und die Zeit, die die Zelle braucht, um abzunehmen, verringert sich ebenfalls. Bei den meisten Solid-State-Laufwerken sind diese Parameter konstant, bei Western Digital SSD hingegen ändern sie sich dynamisch mit dem Verschleiß der Zellen, wodurch die Lebensdauer jedes einzelnen Laufwerks maximiert und die negativen Auswirkungen auf die Halbleiterstrukturen minimiert werden können.

    QLC 3D NAND - Flashspeicher der neuesten Generation


    Wenn Sie die Nachrichten aus der Welt der Hochtechnologie verfolgen, wissen Sie wahrscheinlich, dass Western Digital die Produktion von dreidimensionalem Speicher der nächsten Generation - QLC 3D NAND - aktiv entwickelt (die erste Ankündigung erfolgte im Juni 2018). Die Abkürzung QLC steht für Quad-Level-Zelle. Mit anderen Worten, 16 Ladungspegel können in einer einzigen Zelle gespeichert werden, wobei nicht drei, sondern vier Informationsbits codiert werden. Im Vergleich zu TLC 3D NAND ist die Aufzeichnungsdichte in der QLC um 33% gestiegen: Damit hat die Kapazität eines 64-Schichten-Chips auf 768 Gbit / s zugenommen. Dies ist jedoch nicht die Grenze: Im August 2018 begannen wir mit der Produktion von Mikroschaltkreisen mit 96 Schichten. Durch die Erhöhung der Anzahl der Schichten konnten wir die Kapazität um 50% steigern und die 1-Tbit-Grenze überwinden: Die neuen Chips, 3D-NAND-BiCS4 genannt, können 1,33 Tbit an Informationen aufnehmen, was etwa 166 GB entspricht.


    Kombinieren von zwei 48-Layer-Chips in einem 96-Layer: Durch die

    höhere Kapazität kann die Leistung von SSDs reduziert werden, aber Sie sollten sich keine Sorgen machen: Im neuen 3D-NAND-BiCS4-Flash-Speicher werden vier physische Arrays verwendet, um die Lese- und Schreibdaten zu optimieren Dies ist ein Hinweis auf die Parallelisierung der Operationen, was wiederum dazu beitragen wird, den Cache effizienter zu nutzen und den Verschleiß der Zellen zu kontrollieren, wodurch die Lebensdauer der QLC-Chips auf einem Niveau gehalten wird, das mit modernen TLC-Lösungen vergleichbar ist. Die Beschreibung der Technologien, die QLC zugrunde liegen, sprengt jedoch den Rahmen dieses Materials und verdient natürlich einen eigenen Artikel.

    Jetzt auch beliebt: