搜索
首页 电脑/网络 硬件

数据中心里的固态盘 加到服务器还是存储?

全部回答

2018-06-02

0 0

    通常,数据中心的服务器和存储是相互分开的(如下图所示)。无论是在服务器端还是在存储端安装更快的存储介质都可以加速网络访问。存储阵列利用分层存储,将重要性不同的数据分放在不同速度和成本的存储介质上。
      在下图里,最左边的两个球体代表磁带和硬盘,它们可以分为三层。  磁带用于第三层存储,企业级硬盘用于第一层。存储阵列在第一层存储里保存的是那些需要经常访问的一级数据,并且很少使用或而访问较少的“冷”数据放在第三层存储上。
  管理软件负责在各层之间调配数据,将访问率高的分配到速度更快的存储,并把访问率低的分配到速度慢但是便宜的存储介质。      服务器处理器速度快速增长,而磁盘访问速度增长却非常缓慢。
  两者之间的差距越来越大。随着固态硬盘的出现,这个问题有所缓解。存储阵列出现一个新的层,被称为第0层。  去年年初,EMC公司第一个宣布在其Symmetrix系统中广泛支持第层0固态存储。Symmetrix系统使用的是STEC公司提供的超高速ZeusIOPS光纤通道固态盘。
      几个月后,IBM DS8000升级,采用了Fusion-io公司基于PCIe的固态盘Iodrive,IOPS 可达100万。  戴尔称其存储层为“池”,池1是固态盘,池2是企业级硬盘。
  其他公司也提供类似的产品,有的还比EMC的声明更早,只是大概他们的推广工作不如EMC做的好。    本周,Gartner分析师Carl Claunch在年度数据中心大会上表示,基于闪存的存储将快速成为数据中心一项重要技术。
  由于向闪存驱动器特定区域写入数据的次数有技术限制,导致固态盘的寿命问题曾经饱受质疑,不过Claunch表示:巧妙地使用软件可以控制数据写入方式、位置和时间,从而延长SSD寿命。    那么,存储阵列里添加了SSD后,是不是就可以大幅提升应用的效率呢?并非如此,困难之一是:所有从服务器到存储的数据访问仍然会受到网络延迟的限制,在某些情况下,这种延迟是让人无法容忍的。
    这时,数据中心管理者通常使用两种方法:增加DRAM缓存 ,或安装额外的服务器 。  但这些方法都比较贵。  还有一种方法,就是将固态盘添加到服务器。OEM厂商和他们的客户发现,这样可以削减DRAM的需求,有时甚至减少他们使用的服务器数量。
  这不仅缩小了数据中心的面积,还缩减了功耗和冷却成本,但它往往能带来一系列的隐性成本的降低,比如软件许可成本等。  这方面Sun采用Intel的SSD,推出了支持固态盘的服务器;后来又推出了开放标准的SATA模块。
    直接附加固态存储的方式为减少网络流量做出非常大的贡献 ,但在数据共享方面就略逊一筹。固态盘可以大幅减少延迟,但网络仍然还面临这数据传输的负担。哪种方式好在很大程度上取决于工作负载的类型。    从长远来看,我们预计在3年内可以见到固态盘的大规模应用,许多数据中心将采用混合的方法,既增加固态存储阵列也会购买支持SSD的服务器。
  这两者将合并,这样可以减少网络流量,提高响应时间,使用占用空间更小、功耗更低、成本更低的硬件 。

类似问题换一批

热点推荐

热度TOP

相关推荐
加载中...

热点搜索 换一换

电脑/网络
硬件
程序设计
电脑装机
操作系统/系统故障
笔记本电脑
百度
互联网
反病毒
软件
硬件
硬件
键盘/鼠标
显卡
显示器
主板
CPU
硬盘
内存
举报
举报原因(必选):
取消确定举报