我希望您有机会阅读我的文章 第一部分博客文章 存储级内存、MRAM、大容量固态硬盘。第二部分继续介绍正在改变存储格局的其他 SSD 技术。一如既往,群联随时为您提供帮助!
您认为 NVMe 何时会取代 SATA,Gen4 何时会占据主导地位?
在许多方面,这两个变化都已经在客户端发生了。 SATA 接口持续了很多年,因为价值配置主要集中在 HDD 上,而 HDD 只能通过 SATA 接口来实现。尽管没有技术原因阻止 300-600 MB/s HDD 采用 Gen3x2 PCIe 接口。 SSD的价格已经下降到2019年超过75%的笔记本电脑配备了SSD。减轻重量、提高电池寿命和机械保修问题方面的优势超过了低价HDD带来的任何节省。价值层可能会在 PCIe Gen3x4 上停留几年,但主流和高端层正在广泛采用 Gen4x4。
目前,企业领域的 PCIe SSD 销量高于 SATA SSD,但目前 SATA 可能还会继续存在 4-8 年。企业的更新周期通常为 4 年,并且 SATA 已经拥有非常大的安装基础。需要更快速度的组织已经转向 Gen3 NVMe。随着时间的推移,基于 SATA 和 SCSI 的设备将变得越来越不常见。企业 Gen3 安装基础预计将在今年开始大规模迁移到 Gen4,但迁移将是渐进的。我们预计 Gen3 在该领域的销售将再持续 4 年。这就是为什么我们用市场上具有最低 IOPS/瓦特的新型 FX 控制器更新了广受欢迎的 E12 控制器。
群联如何看待存储级内存?
SSD 很容易集成到 PC 和数据中心存储中,因为它们与现有基础设施 100% 兼容。这适用于服务器机箱、PC 机箱、笔记本电脑、BIOS、操作系统和应用程序。最初的部署无法充分利用 SSD 的特性,但用户在切换时确实看到了立竿见影的好处,因为功耗更低、顺序速度更快、鲁棒性更高。
另一方面,SCM 通常作为 NVDIMM 在 DDR 总线上实现。现有应用程序在不进行重大更改的情况下无法利用非易失性方面,因为它们被设计为将 DDR 视为易失性。这使得 SCM 脱离了简单的采用道路。将 SCM 置于 NVMe 接口后面解决了向后兼容性问题,但当前的 SSD 已经使 PCIe 总线饱和。使用 SCM 作为存储的唯一好处是它具有较低的单个命令延迟。事实证明,很少有应用程序能够利用 SSD 现有的延迟增益。因此,您最终得到的 SSD 价格要贵得多,并且对大多数应用程序没有任何真正的好处。我们确实相信SCM在SSD中占有一席之地,但它并不是作为主存储。
群联在计算存储方面做了什么?
我们已经拥有一种非常成功的计算混合设备:智能 NIC。它们将高速 NIC(典型值 10 GB/s)与强大的 CPU 或 FPGA 结合在一起。虽然这种组合适用于 NIC,但它不适用于存储。原因相当简单。 NIC 的智能部分正在处理已经通过 NIC 传递到主机的数据。当智能 NIC 能够处理流经的数据时,或者当智能 NIC 能够绕过主机 CPU 直接访问机箱内的资源来服务请求时,智能 NIC 就能很好地工作。
计算存储的典型价值主张如下:SSD 更接近数据——它释放总线带宽并减轻主机 CPU 的负担。从表面上看,计算存储似乎很容易销售,但事实并非如此。
1. 首先,如今的 SSD 已经使用 100% 的资源和功率预算来服务其主要功能。在许多情况下,高密度企业级 SSD 必须限制性能以避免超出其功率或冷却预算。
2. 其次,SSD 通常使用小型 CPU 内核,远不及主机 CPU 或 GPU 的功能。第三,这个实验在计算存储成为流行词之前就已经尝试过了。一家公司尝试将 GPU 和 SSD 结合起来,但该解决方案最终降低了这两种技术的性能。为了满足 GPU 的要求,SSD 必须运行得非常快,并给 GPU 增加大量的热负载。 GPU 比 SSD 热得多,并且对 NAND 造成了很大的保留压力。
3. 最后,SSD 是一种消耗品,具有有限的写入带宽,而 GPU 可以无限期地运行,直到被淘汰。最后一点造成了难以解决的保修问题。
采用不同的方法,我们可以直接在 SSD 上添加更强大的 CPU,但我们会遇到 RAM 限制。如今,大多数企业级 SSD 都保持着 1000:1 的 NAND 与 DDR 比率。 SSD每次4K LBA转换只需拉取几个字节,因此DDR带宽要求相对较低。这意味着 SSD 可以使用速度较慢的 DRAM,从而降低整个模块的成本。向 SSD 添加更大的来宾 CPU 以及用于应用程序的更多 DDR,会降低 SSD 向主主机提供 IO 的主要作用的可用功率。它还会增加 SSD 成本,但不会按比例提高计算能力。 SSD PCB 也相当小,因此添加更多组件意味着 NAND 的空间更少。
然后是数据可靠性的普遍问题。所有硬件最终都会失败,但大多数组织都无法容忍数据丢失(即:想象一下带有您帐户余额的银行数据库)。为了防止这种类型的故障,数据通常跨多个单元 RAID 集进行条带化,因此没有一个 SSD 会看到完整的数据集。我们可以改变存储的使用方式,确保每个 SSD 始终看到完整的数据元素,并使用完整复制来确保冗余。这种方法不太可能流行,因为如果只有一个 SSD 包含当前所需的数据,则该模型在共享存储带宽方面效果不佳。 RAID 条带通过交错访问来解决此问题,以便每个后续客户端在当前客户端之后不久启动。我们可以通过跨多个单元实现复制来扩展模型,其中每个 SSD 都具有数据集的完整副本,但随后我们必须添加查找和负载共享机制。与简单的 RAID5 或 RAID6 相比,复制的存储占用空间也大得多。简而言之,我们今天使用存储的方式具有成本效益、易于部署并且适用于大多数场景。完全改变存储基础设施相当于增加一些服务器 CPU 是很难证明是合理的。
尽管通用计算存储有缺点,但在某些特定情况下它确实有意义。当存储用例反映智能 NIC 的获胜案例时,就会发生这种情况。也就是说,当数据在设备中移动时,SSD 只需要处理一次。我们可以将加密和压缩与计算存储联系起来,但这是一个延伸。使用非常简单的算法将这两个用例定义为内联或流式数据处理更为准确。
群联和我们的一位客户开发了一款产品,我们发现了非常适合 SSD 的计算存储应用程序。它不需要大量内存或 CPU 功率,并且不会干扰 SSD 的主要用途(存储 IO)。我们正在开发一种安全产品,它使用机器学习来寻找数据受到攻击的迹象。它可以识别勒索软件和其他未经授权的活动,而不会对 SSD 性能产生明显影响。
其他类型的计算存储工作负载又如何:即时加密/压缩/重复数据删除?
这三种工作负载可以与计算存储相关联,尽管它们比这个流行词早了几十年。如上所述,SSD 很容易处理流式工作负载,但搜索和后处理效率较低。
加密和压缩属于流媒体类别。群联为我们的 Opal 和 FIPS 140-2 SSD 产品提供即时加密。压缩很容易在 SSD 上实现,并且与流媒体模型概念保持一致,但鉴于大多数批量数据(照片、视频或音乐)已经完全压缩,它提供的好处有限。有大量数据集可以从压缩中受益,但用例相对不常见,因此它往往被降级为专用服务器设备。
重复数据删除打破了流媒体模型,原因如下:
1. 需要大量内存来跟踪每个扇区的哈希值,但 SSD PCB 没有空间容纳更多 DRAM
2. SSD 已经成为数据中心环境中的全部任务,因此所有用于搜索的工作都会被主机 IO 占用。
让 SSD 执行搜索的唯一真正好处是稍微减少 PCIe 总线传输时间并减少主机 CPU 上的负载。相反,由于更高的计算要求和额外的 DRAM,SSD 的成本必须上升。其有功功率也必然要上去。对于确实需要重复数据删除的组织,最好使用备用系统资源来解决这个问题,尤其是在人们睡觉时,而不是在 SSD 成本上增加 10-20%。
群联如何帮助品牌客户的产品脱颖而出?
群联为我们的合作伙伴提供按需工程服务。每个公司对于 SSD 优先考虑哪些方面都有不同的想法。我们配置我们的产品以满足他们的要求。一些客户关注价格,另一些客户想要低功耗,还有一些客户仍然追求高端性能。这对双方来说是双赢,因为群联可以专注于工程设计,而我们的客户可以专注于销售驱动器。这种分工通过将开发成本分散到许多销售组织来降低群联的业务风险。我们的合作伙伴只需为他们正在使用的工程服务付费,而无需承担维护大型工程师团队的持续运营费用,从而降低了总体风险。如果他们向市场提供的产品卖不出去,他们可以通过订购不同的配置来快速适应
群联宣布推出一款带有 MRAM 的企业控制器,但它在哪里呢?
企业 ASIC 的开发周期比客户端 ASIC 更长。群联的下一代高端企业控制器目前正处于工程样品阶段,我们预计产品将于 2021 年下半年推出。一旦主流解决方案量产,我们将开始启用MRAM。我们预计将在 2022 年第二季度或第三季度发布基于 MRAM 的解决方案。
如果您有任何疑问和/或需要有关任何其他固态技术的信息,请 联系我们.