Ich hoffe, dass Sie Gelegenheit hatten, meine zu lesen Teil I Blogbeitrag auf Speicher der Speicherklasse, MRAM und Solid-State-Laufwerken mit großer Kapazität. Teil II geht weiter mit anderen SSD-Technologien, die die Speicherlandschaft verändern. Wie immer ist Phison für Sie da!
Wann wird NVMe Ihrer Meinung nach SATA ablösen und wann wird Gen4 Ihrer Meinung nach dominant werden?
In vielerlei Hinsicht sind beide Veränderungen auf Kundenseite bereits eingetreten. Die SATA-Schnittstelle blieb viele Jahre bestehen, da preisgünstige Konfigurationen mit Fokus auf HDD und HDD nur mit SATA-Schnittstelle erhältlich waren. Allerdings gibt es keinen technischen Grund, der eine 300–600 MB/s-Festplatte daran hindert, eine Gen3x2-PCIe-Schnittstelle zu verwenden. Der Preis für SSDs ist so weit gesunken, dass im Jahr 2019 über 75% Laptops mit SSDs ausgestattet waren. Die Vorteile in Bezug auf Gewichtsreduzierung, Verbesserung der Akkulaufzeit und mechanische Garantieprobleme überwiegen die Einsparungen, die durch preisgünstigere Festplatten erzielt werden. Die Value-Stufe wird wahrscheinlich noch ein paar Jahre auf PCIe Gen3x4 bleiben, aber die Mainstream- und Premium-Stufen setzen Gen4x4 weitgehend ein.
Im Unternehmensbereich werden mittlerweile mehr PCIe-SSDs verkauft als SATA-SSDs, aber zu diesem Zeitpunkt wird SATA wahrscheinlich noch weitere 4 bis 8 Jahre bestehen bleiben. Das Unternehmen hat einen typischen Aktualisierungszyklus von vier Jahren und es gibt bereits eine sehr große Installationsbasis für SATA. Organisationen, die eine höhere Geschwindigkeit benötigten, sind bereits auf Gen3 NVMe umgestiegen. Mit der Zeit werden SATA- und SCSI-basierte Geräte weniger verbreitet sein. Es wird erwartet, dass die Gen3-Installationsbasis der Unternehmen in diesem Jahr mit einer umfassenden Migration auf Gen4 beginnen wird, die Migration wird jedoch schrittweise erfolgen. Wir erwarten weitere 4 Jahre mit soliden Gen3-Verkäufen in diesem Bereich. Aus diesem Grund haben wir unseren beliebten E12-Controller mit dem neuen FX-Controller aktualisiert, der den niedrigsten IOPS/Watt auf dem Markt aufweist.
Wie sieht Phison den Speicher der Speicherklasse?
SSDs ließen sich leicht in PCs und Rechenzentrumsspeicher integrieren, da sie 100%-kompatibel mit bestehenden Infrastrukturen sind. Dies gilt für Servergehäuse, PC-Gehäuse, Laptops, BIOS, Betriebssystem und Anwendungen. Bei anfänglichen Einsätzen konnten die SSD-Eigenschaften nicht voll ausgenutzt werden, aber Benutzer sahen beim Umstieg aufgrund des geringeren Stromverbrauchs, der schnelleren sequentiellen Geschwindigkeit und der höheren Robustheit sofort einen Vorteil.
Andererseits wird SCM typischerweise auf dem DDR-Bus als NVDIMM implementiert. Bestehende Anwendungen können den nichtflüchtigen Aspekt nicht ohne wesentliche Änderungen nutzen, da sie DDR als flüchtig behandeln. Dies bringt SCM vom Weg zur einfachen Einführung ab. Durch die Platzierung des SCM hinter einer NVMe-Schnittstelle wird das Abwärtskompatibilitätsproblem behoben, aktuelle SSDs können den PCIe-Bus jedoch bereits überlasten. Der einzige Vorteil der Verwendung von SCM als Speicher besteht darin, dass die Latenz einzelner Befehle geringer ist. Es stellt sich heraus, dass es nur sehr wenige Anwendungen gibt, die von dem Latenzgewinn profitieren können, der über das hinausgeht, was SSDs bereits bieten. Somit erhalten Sie am Ende eine SSD, die deutlich teurer ist und für die meisten Anwendungen keinen wirklichen Nutzen bietet. Wir glauben zwar, dass SCM einen Platz in der SSD hat, aber nicht als Primärspeicher.
Was macht Phison in Bezug auf Computational Storage?
Wir verfügen bereits über eine Art rechnergestütztes Hybridgerät, das sehr erfolgreich ist: Smart NIC. Sie kombinieren eine Hochgeschwindigkeits-NIC (typ. 10 GB/s) mit einer leistungsstarken CPU oder FPGA. Obwohl diese Kombination für NIC funktioniert, funktioniert sie für die Speicherung nicht so gut. Der Grund ist ziemlich einfach. Der intelligente Teil der Netzwerkkarte verarbeitet Daten, die bereits über die Netzwerkkarte an den Host weitergeleitet werden. Die Smart NIC funktioniert gut, wenn sie Daten beim Streamen verarbeiten kann oder wenn die Smart NIC eine Anfrage bearbeiten kann, indem sie direkt auf Ressourcen im Gehäuse zugreift und dabei die Host-CPU umgeht.
Das typische Wertversprechen für Computerspeicher stellt sich wie folgt dar: Die SSD ist näher an den Daten – sie gibt Busbandbreite frei und entlastet die Host-CPU. Auf den ersten Blick scheint sich Computational Storage leicht zu verkaufen, aber das ist nicht der Fall.
1. Erstens verbraucht die SSD heute bereits 100% ihrer Ressourcen und ihres Energiebudgets, um ihre Hauptfunktion zu erfüllen. In vielen Fällen müssen Enterprise-SSDs mit hoher Dichte die Leistung begrenzen, um eine Überschreitung ihres Energie- oder Kühlungsbudgets zu vermeiden.
2. Zweitens verwenden SSDs typischerweise kleine CPU-Kerne, die bei weitem nicht das leisten, was die Host-CPU oder eine GPU leisten kann. Drittens wurde dieses Experiment bereits ausprobiert, bevor Computational Storage ein Schlagwort war. Ein Unternehmen versuchte, eine GPU und eine SSD zu kombinieren, doch die Lösung beeinträchtigte letztlich beide Technologien. Um die GPU-Anforderungen zu erfüllen, musste die SSD sehr schnell laufen und die GPU erheblich wärmelasten. Die GPU ist viel heißer als eine SSD und verursacht eine erhebliche Retentionsbelastung für das NAND.
3. Schließlich ist eine SSD ein Verbrauchsartikel mit begrenzter Schreibbandbreite, während eine GPU unbegrenzt laufen kann, bis sie veraltet ist. Dieser letzte Punkt führte zu Garantieproblemen, die schwer zu lösen waren.
Mit einem anderen Ansatz könnten wir eine leistungsstärkere CPU direkt auf der SSD hinzufügen, aber wir stoßen auf die RAM-Begrenzung. Heutzutage weisen die meisten Enterprise-SSDs ein NAND-zu-DDR-Verhältnis von 1000:1 auf. Die SSD muss für jede 4K-LBA-Übersetzung nur ein paar Bytes abrufen, sodass der Bedarf an DDR-Bandbreite relativ gering ist. Dies bedeutet, dass SSDs langsameren DRAM verwenden können, was die gesamten Modulkosten senkt. Das Hinzufügen einer größeren Gast-CPU zur SSD zusammen mit mehr DDR für Anwendungen verringert die verfügbare Leistung für die Hauptaufgabe der SSD, nämlich die Bereitstellung von E/A für den Haupthost. Es erhöht auch die SSD-Kosten, führt jedoch nicht zu einer proportionalen Steigerung der Rechenleistung. Die SSD-Platine ist zudem recht klein, sodass durch das Hinzufügen weiterer Komponenten weniger Platz für NAND zur Verfügung steht.
Hinzu kommt das allgemeine Problem der Datenzuverlässigkeit. Die gesamte Hardware fällt irgendwann aus, aber die meisten Organisationen können den Verlust von Daten nicht tolerieren (denken Sie zum Beispiel an eine Bankdatenbank mit Ihrem Kontostand). Um sich vor dieser Art von Fehlern zu schützen, werden die Daten normalerweise auf RAID-Sets mit mehreren Einheiten verteilt, sodass keine SSD jemals den gesamten Datensatz sehen kann. Wir könnten die Art und Weise ändern, wie der Speicher genutzt wird, um sicherzustellen, dass jede SSD immer vollständige Datenelemente sieht und eine vollständige Replikation nutzt, um Redundanz sicherzustellen. Dieser Ansatz wird sich wahrscheinlich nicht durchsetzen, da dieses Modell die Speicherbandbreite schlecht aufteilt, wenn nur eine SSD die aktuell benötigten Daten enthält. RAID-Stripes lösen dieses Problem, indem sie die Zugriffe so gestaffeln, dass jeder nachfolgende Client kurz nach dem aktuellen Client startet. Wir könnten das Modell erweitern, bei dem jede SSD eine vollständige Kopie eines Datensatzes hat, indem wir die Replikation über mehrere Einheiten hinweg implementieren, aber dann müssen wir einen Such- und Lastverteilungsmechanismus hinzufügen. Die Duplizierung hat außerdem einen viel höheren Speicherbedarf als einfaches RAID5 oder RAID6. Einfach ausgedrückt ist die Art und Weise, wie wir Speicher heute nutzen, kostengünstig, einfach bereitzustellen und funktioniert in den meisten Szenarien gut. Es ist schwer zu rechtfertigen, die Speicherinfrastruktur komplett zu ändern, um ein paar Server-CPUs hinzuzufügen.
Trotz der Nachteile allgemeiner Datenspeicherung gibt es bestimmte Fälle, in denen sie sinnvoll ist. Dies geschieht, wenn der Speicheranwendungsfall den Erfolgsfall für Smart NIC widerspiegelt. Das bedeutet, dass die SSD die Daten auf ihrem Weg durch das Gerät nur einmal verarbeiten muss. Wir können Verschlüsselung und Komprimierung mit Computerspeicherung in Verbindung bringen, aber das ist weit hergeholt. Es ist genauer, diese beiden Anwendungsfälle als Inline- oder Streaming-Datenverarbeitung mithilfe eines sehr einfachen Algorithmus zu definieren.
Phison und einer unserer Kunden haben ein Produkt entwickelt, bei dem wir eine Computerspeicheranwendung gefunden haben, die gut für die SSD geeignet ist. Es erfordert keine große Menge an Arbeitsspeicher oder CPU-Leistung und beeinträchtigt nicht den Hauptzweck der SSD, nämlich die Speicher-E/A. Wir entwickeln ein Sicherheitsprodukt, das maschinelles Lernen nutzt, um nach Anzeichen für einen Angriff auf die Daten zu suchen. Es kann Ransomware und andere nicht autorisierte Aktivitäten ohne messbare Auswirkungen auf die SSD-Leistung identifizieren.
Was ist mit anderen Arten von Rechenspeicher-Workloads: spontane Verschlüsselung/Komprimierung/Deduplizierung?
Diese drei Workloads können mit Computational Storage in Verbindung gebracht werden, obwohl sie mehrere Jahrzehnte älter sind als das Schlagwort. Wie oben erwähnt, sind Streaming-Workloads für eine SSD problemlos zu bewältigen, allerdings sind Suche und Nachbearbeitung weniger effektiv.
Verschlüsselung und Komprimierung fallen in die Kategorie Streaming. Phison bietet On-the-Fly-Verschlüsselung für unsere SSD-Produkte Opal und FIPS 140-2. Die Komprimierung lässt sich problemlos auf der SSD unterbringen und entspricht dem Konzept des Streaming-Modells, bietet jedoch nur begrenzte Vorteile, da die meisten Massendaten (Fotos, Videos oder Musik) bereits vollständig komprimiert sind. Es gibt große Datenmengen, die von der Komprimierung profitieren können, der Anwendungsfall ist jedoch relativ selten und wird daher eher auf dedizierte Server-Appliances beschränkt.
Die Argumente für die Deduplizierung brechen aus mehreren Gründen mit dem Streaming-Modell:
1. Es erfordert viel Speicher, um die Hashes für jeden Sektor zu verfolgen, aber die SSD-Platine bietet keinen Platz für mehr DRAM
2. SSDs sind in Rechenzentrumsumgebungen bereits vollwertige Aufgaben, sodass die Arbeit, die mit der Suche verbracht wird, für Host-IO entfällt.
Der einzige wirkliche Vorteil, wenn die SSD die Suche durchführt, ist eine leichte Reduzierung der PCIe-Bus-Übertragungszeit und eine geringere Belastung der Host-CPU. Umgekehrt müssen die Kosten für die SSD aufgrund höherer Rechenanforderungen und zusätzlichem DRAM steigen. Auch seine Wirkleistung muss zwangsläufig steigen. Für Unternehmen, die eine Deduplizierung benötigen, lässt sich das Problem besser mit freien Systemressourcen lösen, insbesondere über Nacht, wenn die Leute schlafen, anstatt 10-20% zu den SSD-Kosten hinzuzufügen.
Wie hilft Phison Markenkunden dabei, ihre Produkte zu differenzieren?
Phison fungiert als On-Demand-Engineering-Dienstleister für unsere Partner. Jedes Unternehmen hat eine andere Vorstellung davon, welche Aspekte bei seiner SSD Priorität haben sollten. Wir konfigurieren unser Produkt entsprechend ihren Anforderungen. Manche Kunden legen Wert auf den Preis, andere wollen einen geringen Stromverbrauch und wieder andere streben nach der oberen Leistungsgrenze. Dies ist eine Win-Win-Situation für beide Seiten, da sich Phison auf die Entwicklung konzentrieren kann, während sich unsere Kunden auf den Verkauf der Antriebe konzentrieren können. Diese Arbeitsteilung senkt das Geschäftsrisiko von Phison, indem die Entwicklungskosten auf viele Vertriebsorganisationen verteilt werden. Unsere Partner senken ihr Gesamtrisiko, indem sie nur für die von ihnen in Anspruch genommenen Ingenieurdienstleistungen bezahlen, ohne dass die laufenden Betriebskosten für die Wartung großer Ingenieurteams anfallen. Wenn sie ein Produkt auf den Markt bringen, das sich nicht verkauft, können sie sich schnell anpassen, indem sie eine andere Konfiguration bestellen
Phison hat einen Enterprise-Controller mit MRAM angekündigt, aber wo ist er?
Unternehmens-ASICs haben einen längeren Entwicklungszyklus als Client-ASICs. Der High-End-Enterprise-Controller der nächsten Generation von Phison befindet sich derzeit in der Entwicklungsmusterphase und wir erwarten die Produkteinführung in der zweiten Jahreshälfte 2021. Sobald die Mainstream-Lösung in Massenproduktion ist, werden wir mit der Aktivierung von MRAM beginnen. Wir gehen davon aus, dass wir die MRAM-basierte Lösung im zweiten oder dritten Quartal 2022 vorstellen können.
Wenn Sie Fragen haben und/oder Informationen zu anderen Solid-State-Technologien wünschen, wenden Sie sich bitte an uns kontaktiere uns.