当前位置:主页 > 查看内容

超融合架构的本质之层次存储

发布时间:2021-06-11 00:00| 位朋友查看

简介:本篇文章将进一步解释在超融合架构中,层次存储为什么是提升数据的I/O性能的***选择。 首先,让我们追溯到现代计算机体系结构中,解决系统性能瓶颈的关键策略:Cache。 现代计算机体系结构是基于冯诺依曼体系结构构建的,冯.诺依曼体系结构将程序指令当做数……

本篇文章将进一步解释在超融合架构中,层次存储为什么是提升数据的I/O性能的***选择。

首先,让我们追溯到现代计算机体系结构中,解决系统性能瓶颈的关键策略:Cache。

现代计算机体系结构是基于冯·诺依曼体系结构构建的,冯.诺依曼体系结构将程序指令当做数据对待,程序和数据存储在相同的存储介质(内存)中,CPU通过系统总线从内存中加载程序指令和相应的数据,进行程序的执行。

冯·诺依曼体系结构解决了计算机的可编程性问题,但是带来了一个缺点,因为程序指令和数据都需要从内存中载入,尽管CPU的速度很快,却被系统总线和内存速度的限制,不能快速的执行。为解决这个问题,Cache的理念被提出,通过在CPU和内存之间加入更快速的访问介质(CPU Cache),将CPU经常访问的指令和数据,放置到CPU Cache中,系统的整体执行速度大幅度提升。

I/O性能瓶颈问题转移到了存储

如果内存的访问速度相对CPU太慢,那么磁盘的I/O访问速度相对CPU来说就是“不能忍”了。下表是不同存储介质的访问延时,在虚拟化环境下或云环境下,由于I/O基本都是随机I/O,每次访问都需要近10ms的寻道延时,使得CPU基本处于“等待数据”的状态,这使得核心业务系统运转效率和核心应用的用户体验都变得很差,直观的感受就是业务系统和桌面应用“很卡”。

参考:http://norvig.com/21-days.html#answers

基于SSD构建平衡系统

和前人解决内存访问延时问题的思路类似,现在的主流方法是使用内存和SSD作为Cache来解决I/O性能瓶颈。存储系统能够分析出数据块的冷热程度,将经常访问的数据块缓存到内存和SSD中,从而加速访问。

不论是全闪存存储,还是混合介质存储,从某种意义上讲都是层次存储,只不过混合阵列多了一层磁盘介质。

学过计算机体系结构的人都听说过著名的Amdahl定律,这里我们要介绍一个Amdahl提出的“不那么著名”的经验法则:

在一个平衡的并行计算环境中,每1GHz的计算能力需要1Gbps的I/O速度与之匹配

假设一台服务器有2颗E5-4669 v3的CPU,每颗CPU有18个核,36个超线程,主频是2.1GHz,那么我们可以计算一下,这样的一台服务器需要151Gbps (即~19GBps)的带宽。在大规模的云计算(虚拟机算)环境中,极端情况下,大量的I/O并发使得存储收到的I/O都变成随机I/O,在这么一个并发环境中,假设我们的访问大部分都是8KB的读写,根据上面的计算,我们需要为一台服务器配备近250万的IOPS读取速度。

在不考虑系统总线的情况下,如果我们用SAS/SATA硬盘来提供这个IOPS,即使每个SAS/SATA盘可以提供近250的IOPS(实际数值更小),仅为构建一台平衡的服务器计算存储环境,就需要大概1万个SAS/SATA硬盘。在稍大规模的虚拟化环境,想要搭出一个平衡的系统,用传统的SAS/SATA硬盘几乎不可能完成任务。但是如果采用能够提10万“写IOPS”的SSD设备,25块SSD就够了。

层次存储的优势

“层次存储”是相对“全闪存”而言,是指将容量大但是速度较慢的HDD和速度快的SSD同时构建在系统中,通过数据的访问特性,将经常访问的热数据放置在SSD中,而冷数据放置在HDD中。

首先,为构建一个平衡的虚拟化环境,需要大量的SSD设备来提供足够的IOPS。但是SSD也不是***的。目前的SSD擦写次数有限、价格高。层次存储将热数据放置在SSD层中,而大量的冷数据仍然放置在SATA硬盘上,热数据周期性的同步到HDD硬盘,既为用户热数据提供了高IOPS的保障,也通过SATA硬盘提供了更大的容量和可靠性。

下图是对11个开发人员桌面负载的I/O统计,包含了对5.1TB大小的存储上的76亿次IO访问和28TB的数据传输。首先值得注意的是,有3.1TB(62%)的数据,在一年内从来没有被访问过,这意味着这些数据无论是放置在SSD上,还是SATA上,甚至放到U盘上拔走,对系统都没有影响。

图引自:《The 80/20 rule… for storage systems》by Andy Warfield


本文转载自网络,原文链接:http://mp.weixin.qq.com/s/IsxDB0kt35p-I3xMOhYBvg
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!

推荐图文

  • 周排行
  • 月排行
  • 总排行

随机推荐