SPS-Speicherchips: Wie weit sind sie entfernt?
SPS-Speicherchips sind heute in Laborversuchen technisch machbar. Die Herausforderung, sie kommerziell nutzbar zu machen, besteht darin, sicherzustellen, dass ihre Leistungsmerkmale für Speicheranwendungen nützlich sind. NAND-Anbieter müssen mehrere gegenläufig verwandte Funktionen ausbalancieren, darunter: Lesegeschwindigkeit, Schreibgeschwindigkeit, Programmier-/Löschzyklen, Datenaufbewahrung und Fertigungsausbeute. Um zu sehen, wie dieser Balanceakt ablaufen wird, müssen wir uns nur QLC ansehen.
Theoretisch sollte QLC aufgrund der höheren Bitdichte eine Kostenreduzierung im Vergleich zu 33% ermöglichen. Leider beträgt die Kosteneinsparung aufgrund der Herausforderungen im Zusammenhang mit der Fabrikausbeute nur etwa 10%. Ein sekundärer Faktor, der den Preis beeinflusst, ist das Radfahren. Heutzutage kann der fortschrittlichste QLC 1200 Zyklen liefern. Der nächstnächste Wettbewerber kann nur 600 Zyklen bereitstellen. Dadurch hat der Marktführer weniger Druck, die Preise zu senken. Hinzu kommt, dass die Programmierung von QLC 4-8x langsamer ist als die von TLC. Diese Leistungseinbußen waren notwendig, um sicherzustellen, dass die Datenaufbewahrungsdauer mit TLC übereinstimmt. Diese Kompromisse werden wahrscheinlich noch verstärkt, wenn wir PLC in Betracht ziehen.
Die größte Herausforderung für die SPS wird sein, wenn wir versuchen, eine Rolle für dieses NAND zu finden. Es wird wahrscheinlich Eigenschaften aufweisen, die einschränkender sind als QLC. Die Anzahl der Zyklen ist geringer, während die Programmier- und Löschzeit länger ist. Ursprünglich war QLC nur für Archivierungsanwendungen geeignet, wurde aber inzwischen auf Cold-Storage- oder leseintensive Hot-Anwendungen umgestellt. Glücklicherweise verbessert sich QLC mit jeder Generation. Es ist wahrscheinlich, dass PLC die gleiche Entwicklung wie QLC verfolgen wird, allerdings auf einem viel langsameren Weg. Realistisch gesehen werden wir PLC NAND angesichts der Schwierigkeiten, die wir heute bei der Reifung von QLC erleben, wahrscheinlich erst in fünf Jahren sehen.
RAM-basierter Speicher ist schneller als NAND, aber wo sind die Laufwerke?
DDR-basierte Speicher gibt es schon seit über 20 Jahren, aber sie haben sich nie wirklich durchgesetzt. Es kommt vor allem auf Kosten und Leistung im Vergleich zu den bestehenden Alternativlösungen an. DDR4 läuft mit 19–35 GB/s pro Kanal. Im Vergleich: Gen4-SSDs laufen mit 7 GB/s. Der Geschwindigkeitsunterschied ist von einer Größenordnung auf das 2- bis 5-fache gesunken.
Dann ist da noch die Frage der Kosten. DDR kostet derzeit etwa $5/GB, während NAND etwa $0,15/GB kostet. Heutzutage können die meisten Anwendungen ihren Speicherbedarf mit einem SSD-Pool decken. Eine SSD-basierte Lösung mit 192 TB kostet $30K, während die gleiche Kapazität im DDR $980K übersteigt. Betrachten wir das Problem aus einem anderen Blickwinkel: Wenn wir das Budget auf $30K festlegen, bietet die SSD-basierte Lösung 192 TB Speicher, die DDR-basierte Lösung jedoch nur 6 TB. Schließlich ist da noch die Tatsache, dass DDR volatil ist. Wenn Geschwindigkeit Priorität hat und Datenverlust in Ordnung ist, warum verwalten Sie die Daten dann nicht einfach direkt im RAM, anstatt sie über das Dateisystem zu durchlaufen?
Es gibt einen Markt für sehr schnellen DDR-basierten Speicher, aber dieser ist klein. Wenn DDR-basierter Speicher plötzlich dominant wird, verfügt Phison bereits über die firmeneigene Technologie zur Herstellung dieser Art von Laufwerk.
Es wird erwartet, dass ultragroße SSDs (20 TB oder mehr) die heute üblichen SSDs mit 2 TB bis 4 TB ersetzen werden. Wie bereitet sich Phison auf diesen Übergang vor?
Phison entwickelt derzeit Lösungen mit mehr als 64 TB. Wir sehen eine Divergenz in den Rollen von SSD und HDD. Mit dem kommenden 1-TB- und 2-TB-NAND-Chip können wir mit einem Preisrückgang um das Vierfache rechnen. Damit ist die SSD $/GB nahezu preislich gleichwertig mit der Festplatte. Da die SSD-Kosten sinken, wird Flash-basierter Speicher immer mehr die Hot-Storage-Ebene einnehmen. Die Festplatte wird schrittweise in die Nearline- und Cold-Tiers verschoben.
Für Unternehmens- und HPC-Anwendungen sind derzeit Dichten von 16 bis 32 TB gefragt, wobei in den nächsten zwei bis drei Jahren ein Bedarf an SSDs mit 256 TB prognostiziert wird. Obwohl erwartet wird, dass die nächste Generation von Festplatten 80–100 TB erreichen wird, kann die SSD diese Dichte mit 1 TB TLC bereits übertreffen. Die NAND-Dichte soll in den nächsten Jahren auf bis zu 2 TB pro Chip steigen, und es gibt einen klaren Weg zu 4 TB. Magnetische Medien werden wohl nicht mithalten können.
Darüber hinaus ermöglicht die Geschwindigkeit von PCIe Gen4, Gen5 und Gen6, dass die SSD eine neue Rolle übernimmt, die die Festplatte nicht erreichen kann. Die SSD ist jetzt schnell genug, um den L4-Cache zu ersetzen, der heute in der CPU vorhanden ist. Wir sehen diese Entwicklung bereits im modernen Gaming, wo die SSD als Just-in-Time-Textur-Cache verwendet wird. In dieser Funktion erweitert die SSD den DRAM zu geringeren Kosten pro GB. Mit der zusätzlichen Kapazität der SSD können Texturen nach Bedarf abgerufen und gelöscht werden. Dies ermöglicht eine enorme Verbesserung der Grafik, ohne die System-DDR-Kosten zu erhöhen.