当前位置:主页 > 查看内容

打造大规模共享闪存基础架构

发布时间:2021-05-17 00:00| 位朋友查看

简介:【51CTO.com快译】从概念上讲,RSI为不同的架构整合服务器部件(CPU、GPU、存储系统、内存和网络),使每个部件都能够在标准机架设备中进行调整和升级,通过高容量/低延迟PCIe链路进行连接。在这上面安装虚拟服务器软件,可以利用一个个机架级部件构建虚拟服务……

【51CTO.com快译】从概念上讲,RSI为不同的架构整合服务器部件(CPU、GPU、存储系统、内存和网络),使每个部件都能够在标准机架设备中进行调整和升级,通过高容量/低延迟PCIe链路进行连接。在这上面安装虚拟服务器软件,可以利用一个个机架级部件构建虚拟服务器,并且你拥有了一种意义重大的配置,使企业基础架构能够与云服务相竞争。

不过,在网络上使用非易失性内存和存储系统通常意味着不可接受的延迟。斯坦福大学团队的ReFlex(软件存储服务器 )这时就有了用武之地。

ReFlex

使远程闪存访问可以接受面临几个难题,***的难题是实现低延迟。

管理共享闪存池中的多租户需要隔离机制,那样应用程序不会干扰对方。共享闪存方面***具有高度灵活性,预计还会遇到其他部署问题,比如规模和网络协议。

斯坦福大学的团队在测试中发现,ReFlex获得的远程闪存性能相当于使用TCP/IP基于10Gb以太网的本地闪存访问。他们解释道:“ReFlex使用一种紧密集成网络和存储的新型数据平面内核,在计算要求有限的情况下实现了高性能。这种数据平面设计避免了中断和数据拷贝的开销,针对局部性进行了优化,并兼顾了高吞吐量(IOPS)和低尾延迟。”

多租户

闪存设备上多租户的一大问题是,读取性能和写入性能之间存在巨大的差异。写入可能需要几毫秒,而读取是亚毫秒级事务。这意味着执行大量写入操作的应用(比如元数据更新或流视频)耗用NVMe设备的大量资源。

斯坦福大学的团队实施了QoS调度程序,它可以全面了解所有租户的整个工作负载。***的IOPS取决于所有请求的读取/写入比。调度程序查看每个工作负载的服务级别目标(SLO),优先考虑注重延迟的应用而不是尽力的应用,并确保应用的SLO得到实现。

由于诸如此类的优化,ReFlex能够做到每个核心提供高达850K的IOPS,同时仅比直接访问本地闪存增加21µs的延迟。这非常好。

英特尔的远见卓识者多年来一直在倡导RSI概念,但看起来正是在2018年,所有必要部分(尤其是PCIe v4)汇集起来​,使这个概念在技术上和经济上都切实可行。随着闪存价格暴跌,塞满闪存的机架比以往任何时候都更经济实惠,哪怕是数百TB的闪存。

这对我们数据密集型的未来来说是好消息。是否有任何企业存储供应商使类似ReFlex的技术实现产品化值得拭目以待。

原文标题:Building a large-scale share flash infrastructure,作者:Robin Harris

【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】


本文转载自网络,原文链接:http://www.51cto.com
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!

推荐图文

  • 周排行
  • 月排行
  • 总排行

随机推荐