Video: Die Zukunft der SSD-Controller-Technologie – Ein Blick auf PCIe Gen5 und darüber hinaus

Author | 17. Januar 2022 | Alle, Verbraucher, Spielen, PCIe Gen 5, Video

Im November 2021 interviewte MSI Sebastien Jean, Chief Technology Officer von Phison, um mehr über die Zukunft von SSDs zu erfahren Gaming und insbesondere über die Arbeit, die Phison an seinen neuen M.2 PCIe Gen5-Karten leistet. Die lebhafte Diskussion umfasste alles vom SSD-Controller-Design über Leistungsverbesserungen und Wärmemanagement bis hin zu Herausforderungen in der Lieferkette und den besten Anwendungsfällen für Gen5, Gen6 und darüber hinaus.

Einige der Highlights haben wir im Folgenden zusammengestellt außer. Genießen.

 

MSI: Beginnen wir mit den Grundlagen. Was ist ein Speichercontroller und welche Funktion hat er in einer SSD?

Sebastian: SSDs bestehen typischerweise aus drei Hauptteilen: dem Controller, dem Cache – also einem sehr schnellen Speicher – und dem 3D-NAND-Flash selbst, in dem letztendlich alle Daten gespeichert werden.

Ein SSD-Controller besteht aus mehreren Komponenten. Das erste ist ein Verarbeitungselement (Phison verwendet normalerweise den ARM Cortex-R5). Wenn Sie darüber nachdenken, ist eine SSD im Grunde eine Pipeline-Verarbeitungseinheit. Es ist wie ein Fließband. Wenn Sie einen Befehl erhalten, müssen Sie ihn zunächst entschlüsseln, verstehen, was er ist, und dann beginnen Sie, Entscheidungen zu treffen. Jeder Teil dieses Fließbandes prüft den Befehl für sehr kurze Zeiträume – Bruchteile von Mikrosekunden. Abhängig von der Anzahl der NANDs, die Sie in der SSD haben, können Sie zwischen zwanzig und drei- oder vierhundert Parallelitätspunkten haben. Wenn es um wirklich fortschrittliche Enterprise-SSD-Laufwerke geht, benötigen Sie lange Warteschlangen, um sie zu beschäftigen und ihr volles Potenzial von einer, zwei oder drei Millionen IOPS auszuschöpfen.

Die nächste Komponente des Controllers wird als ECC-Engine (Error Correction Code) zur Korrektur von Fehlern auf dem NAND bezeichnet. NAND wird sowohl durch Hitze als auch durch Zeit beeinflusst, sodass Bits anfangen können, umzudrehen. Phison hat eine sehr starke entwickelt EWG-Motor um all diese natürlich auftretenden Fehler zu korrigieren, was eine Grundvoraussetzung für jedes SSD-Laufwerk ist.

 

MSI: Der ECC befindet sich also nicht im Flash-Speicher selbst?

Sebastian: Die ECC-Bits, die codiert und an die Daten angehängt wurden, befinden sich im Flash-Speicher, aber der Flash an sich verfügt nicht über die Fähigkeit, sie zu verarbeiten – das würde den Flash zu teuer machen. Daher ist die ECC-Einheit in den Speichercontroller integriert. Der Speichercontroller verfügt über SRAM – einen oder mehrere CPU-Mikrokerne – und Beschleuniger wie ECC, Kryptografie und andere Dinge in dieser Richtung.

 

MSI: Sie haben die Verwendung von ARM R5-Prozessoren erwähnt. Würde sich ein Upgrade auf schnellere Versionen positiv auf die Leistung auswirken?

Sebastian: Das Ersetzen des Kerns durch etwas wesentlich Größeres führt nicht unbedingt zu einer Leistungssteigerung. Größere Kerne haben eine größere Siliziumfläche, was den Chip und die SSD insgesamt teurer macht. Wenn Sie also eine SSD bauen, sollten Sie sie grundsätzlich als einen Balanceakt betrachten, der auf der Arbeitslast oder Anwendung basiert, die sie bedient. Sie können beispielsweise eine SSD mit vier sehr großen Kernen herstellen oder eine mit vielen kleineren Kernen. Der Vorteil mehrerer Prozessoren in einer SSD besteht darin, dass Sie nicht jeden Prozess für einen eigenen Zeitabschnitt ausführen und viel planen müssen. Für eine CPU in einem PC mag das in Ordnung sein, bei einer SSD ist es jedoch verschwendeter Overhead. Wie ich bereits sagte, haben wir also mehrere Parallelitätspunkte mit 20 Kernen, von denen jeder eine kleine Aufgabe erledigt, wodurch die Arbeit zur Bedienung des Befehls vorangetrieben wird.

 

MSI: Wir sprechen heute über eines Ihrer Flaggschiffmodelle, das PCIe Gen4 mit 7 GB/s. Ihr Controller ist auf 12 Nanometern gefertigt. Können Sie einen höheren Durchsatz erzielen, wenn Sie auf 10 oder sogar 7 Nanometer umsteigen würden?

Sebastian: Ja und nein. Phison stellt SSD-Controller für eine bestimmte Bandbreite und ein bestimmtes IOPS-Ziel her. Daher sind einige unserer mittelgroßen Controller möglicherweise für 5 GB/s ausgelegt, während fortgeschrittenere für 7 GB/s ausgelegt sind. Der Wechsel zu einem neueren, schnelleren Prozessknoten ist nicht unbedingt der richtige Weg. Auch hier hängt es von der Anwendung und dem, was wir tun möchten, ab. Grundsätzlich kommt es darauf an, die beste Technologie zu einem vernünftigen Preis zu liefern.

Aber um Ihre Frage zu beantworten: Das Wechseln der Prozessknoten würde einige Dinge für Sie tun. Der Chip würde kleiner werden, allerdings gibt es in dieser speziellen Situation keine Größenbeschränkung. Dadurch können Sie die internen Frequenzen etwas schneller takten, aber wir müssen nicht schneller gehen, um die aktuellen Leistungsknoten zu erreichen. Es reduziert Ihre Leckage. Alle Siliziumtransistoren lecken ein wenig Strom, auch wenn Sie nicht umschalten. Der Wechsel zu einem kleineren Prozessknoten hilft also erheblich. Das Gegenteil davon ist, dass Sie, wenn Sie auf den neuesten Prozessknoten umsteigen und ihn nicht wirklich benötigen, nur Kosten kaufen, was Ihre SSD ohne zusätzlichen Nutzen teurer macht. Wenn Sie eine CPU mit 2 GHz betreiben, was häufig der Fall ist, wenn Sie eine kleine Anzahl großer/schneller Kerne verwenden, dann benötigen Sie den neuesten Prozessknoten. Bei SSDs geht es bei Fortschritten nicht immer um den neuesten Prozessknoten. Es geht um intelligentes Design, beispielsweise darum, das Problem durch Parallelität anzugehen und Ihre Frequenz zu verlangsamen. Sie können vorzeitig zum neuesten Prozessknoten springen und Ihre Technologie nicht weiterentwickeln.

 

MSI: Würde sich die Leistung der M.2 SSD verbessern, wenn Sie DDR4- oder DDR5-Speicher verwenden würden?

Sebastian: Phison stellt sowohl DRAM- als auch DRAM-lose SSDs her, aber die SSDs, die DRAM verwenden, geben sich große Mühe, keinen DDR-Speicher zu verwenden. Der schnelle Weg führt eigentlich nicht durch die DDR; es geht durch den SRAM und dann den Datenpfad. Der DDR wird für die Adressübersetzung von logisch in physisch verwendet, daher ist der tatsächliche Bedarf an Tabellenbandbreite kleiner als die SSD-Bandbreite, sodass DDR4 oder DDR5 keinen großen Unterschied machen. Lange Zeit waren wir mit DDR3 zufrieden. Unsere aktuellen Modelle verwenden DDR4 und Modelle, die wir in der Entwicklung haben, wechseln zu DDR5. Ab einem bestimmten Punkt ist es sinnvoll, auf den dominanten Prozessknoten zu setzen, um die Kosten niedrig zu halten. Wenn Sie zu lange auf dem alten Knoten bleiben und das Angebot sinkt, steigen die Preise.

 

MSI: Der E16, Ihr erster PCIe-Gen4-Controller, war ein großer Schritt nach vorne. Dann haben Sie den E18 eingeführt. War das der Plan oder wurde der E18-Controller eingeführt, um technische Herausforderungen zu bewältigen und diese Geschwindigkeiten wirklich aus der SSD herauszuholen?

Sebastian: Das ist eine interessante Frage. Beide E16 Und E18 waren geplant. Was wir damals versuchten, war, eine Time-to-Market-Anforderung zu erfüllen. Gen4 war damals ein Fragezeichen. Wir sprechen mit den CPU-Anbietern, lange bevor Produkte auf den Markt kommen, und sie ermöglichen ständig neue Technologien, die möglicherweise in ihren nächsten Produkten zum Einsatz kommen oder auch nicht, selbst wenn sie möglicherweise im Silizium enthalten sind. Daher gab es in der Branche viele Fragen, ob Gen4 aktiviert werden würde oder nicht. Als wir die positive Bestätigung erhielten, dass AMD (das als erstes mit Gen4 auf den Markt kam) sich für Gen4 entschieden hatte, entschieden wir uns und brachten den E16 zeitgleich mit der Veröffentlichung der Plattform auf den Markt. Wir waren nicht nur die ersten, die eine Gen4-SSD auf den Markt brachten, wir waren auch etwa 18 Monate lang die einzige Gen4-SSD auf dem Markt im Kundenbereich. Als unsere Konkurrenten ihre Gen4-Produkte der ersten Generation auf den Markt brachten, brachten wir gerade unsere zweite Generation auf den Markt. Also, ja, der E18 überlastet die Schnittstelle zum großen Teil dank all der Lehren, die wir aus dem E16 gezogen haben, der unser erster ASIC in diesem Bereich war.

 

MSI: Sie stoßen ziemlich an die Grenzen dessen, wozu Gen4 fähig ist. Gibt es Raum für Verbesserungen, arbeiten Sie beispielsweise an Bereichen wie der IOPS-Leistung?

Sebastian: Sie können die IOPS jederzeit verbessern, aber das hat direkte Auswirkungen auf die ASIC-Kosten. Im Kundenbereich, in dem sich der E18 befindet, ist die aktuelle Generation dort, wo sie sein muss. Wir könnten die IOPS verdoppeln, aber ich bin mir nicht sicher, ob die Plattformen davon profitieren könnten. Wir nähern uns der reinen Geschwindigkeitsgrenze dessen, was Gen4 leisten kann, aber es gibt noch andere Möglichkeiten zur Optimierung und vielleicht noch mehr herauszuholen.

 

MSI: Bedeutet das, dass es ein E19 geben wird?

Sebastian: Es gibt ein E19, aber es zielt auf den DRAM-losen Bereich ab, der mehr auf Wert als auf Leistung ausgerichtet ist. Aus Gamer-Perspektive denke ich, was Sie fragen: Wird es einen E18 Plus oder Super Turbo geben? Die kurze Antwort lautet: Nein – Gen4 ist in Bezug auf das, was mit der Technologie möglich ist, gesättigt. Aber was wir mit dem E18 und Gen4 weiterhin tun werden, ist, diese Technologie in andere Schwimmbahnen zu integrieren. Da der E19 auf einen niedrigeren Kostenpunkt abzielt, wird die Schnittstelle nicht überlastet. Durch die Aktualisierung werden also ein paar GB/s mehr hinzugefügt und die IOPS verbessert. In diesem Bereich gibt es also noch Raum für Wachstum mit der aktuellen Technologie, während wir weiter von 12 Nanometern zu unserem nächsten Prozessknoten, nämlich 7 Nanometern, übergehen.

 

MSI: Glauben Sie, dass Direktspeicher den Gen4-Markt beschleunigen wird?

Sebastian: Ich denke, es beschleunigt die Datenverarbeitung im Allgemeinen, insbesondere im Client-Bereich. Grundsätzlich handelt es sich bei Direktspeicher um eine schreibgeschützte Schnittstelle, die NTFS-Schichten umgeht. NTFS ist das Standarddateisystem für Windows, das auf Zuverlässigkeit ausgelegt ist und schon seit sehr langer Zeit existiert. Es enthält viele Ebenen und jede Ebene erhöht die Latenz ein wenig. Durch den direkten Speicher erhalten Sie eine direkte Pipeline zur SSD mit möglichst wenig Verarbeitungsaufwand. Das Betriebssystem fügt so wenig Latenz wie möglich hinzu und ist eine schreibgeschützte Schnittstelle. Daher profitieren schreibgeschützte Workloads, die schnelle I/O benötigen, bei denen es sich in erster Linie um Spiele im Client-Bereich handelt, von der direkten Speicherung. Diese Pipeline mit geringer Latenz ist im Wesentlichen der Ort, an dem die Rechenleistung für Spiele sowie für Telefone, Tablets und PCs genutzt wird.

 

MSI: Wie weit im Voraus arbeitet Phison an diesen neuen Technologien?

Sebastian: Die SSD selbst braucht zwischen sechs und achtzehn Monaten, je nachdem, wie viel wir darin verändern. Aber die Technologie, die in die Ermöglichung des nächsten Silizium-Prozessknotens einfließt, dauert normalerweise zwei bis drei Jahre, bevor der ASIC tatsächlich zum Produkt wird. Wir kennen Gen6 also gut und haben mit der Entwicklung der Low-Level-Komponenten begonnen, die eine Gen6-SSD ermöglichen. Lassen Sie mich jedoch darüber sprechen, warum Gen5 aus rechnerischer Sicht so interessant ist.

DDR4 2133 erreicht etwa 14 GB/s pro Kanal und ein Gaming-PC verfügt über vier bis sechs Kanäle. Jetzt haben wir mit Gen5x4 eine 14-GB-SSD. Es stimmt zwar, dass es schnellere DDR4s gibt und DDR5 mittlerweile auf dem Board der nächsten Generation verfügbar ist, aber darum geht es nicht wirklich. Es ist so, dass wir SSD-Speicher und DRAM jetzt in einem Atemzug sagen können und im selben Raum arbeiten. Eine SSD wird DRAM niemals ersetzen, da DRAM für 64-Bit-I/O optimiert ist – es bietet eine extrem niedrige Latenz. Betrachtet man dies jedoch aus der Caching-Perspektive, verfügt die CPU über einen L1-, L2- und L3-RAM-Cache, während eine SSD der 5. Generation als L4-Cache mit der gleichen Geschwindigkeit wie DDR arbeiten kann. Nun stimmt die natürliche Granularität der SSD mit der Caching-Architektur der CPU überein, und hier beginnt sich die Funktionsweise von Computern im Allgemeinen zu verändern.

 

MSI: Das ist erstaunlich. Was ist Ihrer Meinung nach die größte Herausforderung für die Zukunft dieser neuen Produkte?

Sebastian: Da die Geschwindigkeit mit jeder neuen Generation weiter zunimmt, wird unsere Herausforderung weiterhin darin bestehen, die Hitze in den Griff zu bekommen. Aber wenn man sich die größere Frage ansieht, wohin PCs gehen, herrscht im Client-Bereich die Einsicht, dass M.2 PCIe Gen5 sozusagen an die Grenze seiner Möglichkeiten stößt und die eigentliche Schnittstelle oder der Anschluss zum Engpass werden zukünftige Geschwindigkeiten. Daher werden neue Anschlüsse entwickelt und in den nächsten Jahren verfügbar sein, die sowohl die Signalintegrität als auch die Wärmeableitungsfähigkeit der SSD durch Leitung zum Motherboard erheblich erhöhen.

 

MSI: Was ist mit Lieferkettenproblemen? Wir sehen Engpässe vor allem bei Grafikkarten, aber auch bei vielen anderen Komponenten und Materialien. Wie wirkt sich das auf Phison und die Konsistenz Ihrer Produkte aus?

Sebastian: Die verschiedenen globalen Engpässe in der Lieferkette wirken sich nicht wirklich auf Phison aus. Eine SSD verfügt über eine Handvoll besonders einzigartiger Komponenten. Da sind der Controller, möglicherweise DRAM, NAND und Power-Management-ICs (PMIC). Alles andere ist diskret – Kondensatoren und Widerstände – und daran mangelt es nicht. Für NAND und DRAM hat Phison langfristige Lieferverträge und wir kaufen diese vor, um immer einen Lagerbestand zu haben. Lieferengpässe bei PMIC sind tatsächlich bei vielen Herstellern ein Problem, aber wir stellen unsere eigenen her. Wenn Phison einen neuen Controller für eine SSD entwickelt, entwerfen wir gleichzeitig auch einen PMIC und fertigen beides.

Wir profitieren vom Umgang mit großen Volumina. Als Phison vor etwa 20 Jahren begann, waren wir ein kleines Unternehmen, das USB-Sticks populär machte. Heute stellen wir jede Art von Speicher zur Verfügung, von medizinischen, industriellen, Transport-, Luft- und Raumfahrt-, Gaming-, Workstation- und Unternehmenslösungen bis hin zu eingebettetem Speicher in Telefonen, Autos und IoT. Aus diesem Grund handeln wir mit wirklich hohen Volumina. Solange wir also weiterhin weit im Voraus Prognosen erstellen und unseren Bestand an kritischen Komponenten verwalten, wird es uns gut gehen.

 

MSI: Wird es immer ein Balanceakt bleiben, oder sehen Sie, dass die Zukunft des Speichers eher auf Kapazität als auf Geschwindigkeit und Kapazität ausgerichtet sein wird?

Sebastian: Alles in der Branche bewegt sich in Richtung höherer Dichte und höherer Geschwindigkeit. Der Kundenkreis wird wahrscheinlich ausgeglichen bleiben, wobei sowohl die Geschwindigkeit als auch die Dichte der Premiumprodukte zunimmt, in gewisser Weise entlang der Technologiekurve, die wir in den letzten Jahren gesehen haben. Aber Phison stellt SSDs für die unterschiedlichsten Spezialanwendungen in den unterschiedlichsten Märkten her. Wir verfügen über 16-Terabyte-QLC-SSDs mit extrem hoher Dichte, die auf dem Markt für Hochleistungsrechnen sehr beliebt sind – Menschen, die Datenbankanalysen, KI/maschinelles Lernen, Genomik und andere wissenschaftliche Big-Data-Arbeiten durchführen. Dann haben wir All-SLC-SSDs, die wirklich nützlich für Leute sind, die sehr schreibintensive Arbeitslasten ausführen oder eine stabile Leistung benötigen, sodass Burst und Dauerleistung gleich sind. Im Verbraucherbereich werden wir uns auf Ausgewogenheit konzentrieren, mit Schwerpunkt auf Dichte und Leistung für Spiele. Für den Value-Markt und das mittlere Segment wird es Kompromisse zwischen den Kosten und den Anforderungen der jeweiligen Arbeitslast geben, da Sie keine übermäßige Leistung benötigen, wenn Sie ausschließlich einen Browser verwenden.

 

MSI: Für Spiele scheinen sich die meisten SSDs für TLC-Speicher mit einem SLC-Cache entschieden zu haben. Aber wenn Sie mehr Kapazität bei denselben physischen Die-Größen wünschen, müssen Sie dann zu QLC wechseln?

Sebastian: Ach nein. Wir können derzeit eine TLC-SSD im M.2-Format mit bis zu 8 Terabyte und 16 Terabyte im U.2-Format herstellen, aber eine 16-Terabyte-SSD ist ziemlich teuer.

 

MSI: Spiele werden immer größer und es stehen riesige Mengen an HD-Texturen und anderen Daten zum Herunterladen zur Verfügung. Ist es nur eine Frage der Zeit, bis diese 8- und 16-Terabyte-TLC-M.2-Modelle erschwinglicher werden?

Sebastian: Ja, sie werden definitiv erschwinglicher, weil die NAND-Anbieter die Dichte ihrer Chips ständig erhöhen, um die Kosten zu senken. TLC wird also weiterhin ein Leben haben. Aber QLC wird auch für Non-Gaming-Anwendungen immer interessanter. Sie können auf einer QLC-SSD spielen, da der Datenfluss hauptsächlich auf Lesen basiert und QLC gut im Lesen ist. Es ist einfach nicht so gut beim Schreiben, das deutlich langsamer ist. Aber ich würde sagen, dass die Dichten weiter steigen werden. Die Preise werden weiter sinken. Und das optimale Verhältnis zwischen Kosten und Dichte steigt: Die vorherige Generation hatte ein Terabyte. Die nächste Generation wird zwei Terabyte groß sein und in den nächsten drei oder vier Generationen werden es vier Terabyte sein. Bei jeder Anwendung außer Spielen werden Sie wahrscheinlich mehr QLC sehen, da die meisten Leute mit ihren Laufwerken nur Daten lesen – Sie schreiben das Windows-Betriebssystem einmal und booten unzählige Male davon. Klar, es gibt Patches und sie gehen rein, aber nicht in so hohem Tempo.

Die Stiftung, die Innovation beschleunigt™

de_DEDeutsch