• 1
  • 2
  • 3
  • 4
  • 5
百家谈云计算 首 页  »  帮助中心  »  云服务器  »  百家谈云计算
2015年存储技术成熟度曲线
发布日期:2016-3-17 22:3:42

  知名调研机构Gartner的这份成熟度曲线(Hype Cycle,又译:炒作周期)报告从业务影响、采用率和成熟度这三个方面,评估了36种与存储有关的软硬件技术,旨在帮助用户决定投入于哪项技术、什么时候投入。

  分析前言

  这张成熟度曲线全面展示了36种与存储有关的软硬件技术及各自在一条成熟度曲线上的相对位置。今年存储技术成熟度曲线上新出现的是处于过高期望峰值期的一项技术:“集成系统:超融合”,该技术曾出现在上一年的服务器成熟度曲线上。存储是超融合系统的一个重要部分,也常常是该系统的一大差异化优势。处于曲线峰值期的其他技术包括:软件定义存储、集成备份设备、基于云(如阿里云)的备份服务、虚拟存储设备和开源存储。

  去年在成熟度曲线上移动最远的几项技术包括:固态阵列、企业文件同步及共享(EFSS)、云存储网关和集成系统:超融合。固态阵列已经在市场上刮起了风暴,用户采用率在去年大幅提高。我们将针对其业务效益的评价提升为“变革性”。这边厢,EFSS技术已发展到了底谷后阶段,变得更加成熟;那边厢,由于发现了产品局限性,引发泡沫破灭,云存储网关渐渐进入底谷阶段。超融合集成系统已经进入到平稳期前阶段,目标市场渗透率达到了20%至50%。因为成熟度很高及/或缺少未来发展,今年取消了针对五项技术的分析。基于以太网的光纤通道(FCoE)被列为“没到平稳期就过时了”,又因为缺乏厂商支持、操作方面很复杂,业务效益方面的评价被下调到“很低”。因为存在很大的重叠,读/写闪存缓存与输入/输出优化被合并到一起分析了。

  成熟度曲线

  成熟度曲线显示了一项新型存储技术在进入到主流采用前通常经历的生命周期。这份整合的视图向用户简明扼要地描述了存储行业的技术格局,并帮助客户们了解每项技术的业务效益、风险区域和大众采用率,以便帮助他们在采用新技术方面做出各自的计划。由于成熟度高、采用范围广泛而消失于曲线的技术,也许仍会在Gartner的《IT市场时钟》(IT Market Clock)报告中加以讨论。业务影响大、变革性的高调型技术往往在达到成熟度曲线的峰值期后迅速进入底谷期,而低调型技术或者业务影响小或一般的技术在曲线上移动的速度要慢得多,有时候在接近泡沫化底谷期或沦为过时之前也许从来无法达到峰值期。移动快、影响大的存储相关技术包括:重复数据删除、固态阵列和超融合集成系统。移动慢、业务影响又一般的技术包括:虚拟存储设备和外部存储虚拟化(见图1)。

  

  图1:2015年存储技术成熟度曲线

  优先级矩阵

  优先级矩阵(Priority Matrix)列出了对照Gartner预计达到开始主流采用阶段之前的时间段,针对每种技术所作的效益评价。这另一个视角可帮助用户确定怎样为存储硬件和存储软件技术的投入和采用确定优先级。一般来说,公司应该从图2的左上角开始,在这个区域:技术被评为具有变革性的业务效益,可能会迅速达到主流采用阶段。这些技术往往对业务流程、创收或成本削减项目具有最重大的影响。在存储市场,这些变革性技术包括:重复数据删除和软件定义存储。今年,固态阵列和软件定义存储的业务效益都从“很高”提升到“变革性”。固态阵列现在提供了丰富得多的数据管理方案,此外还有其他重大效益,包括不用调优就能获得稳定性能,大幅减少存储占用空间(storage footprint),及工作负载合并率高。因为软件定义存储,将存储软件与底层存储硬件分离开来为降低购置存储系统的成本起到了重大作用。

  除了这些变革性技术外,Gartner建议用户应评估影响大、会在近期达到主流采用阶段的技术。影响大、近期达到主流采用阶段的存储技术包括:持续性数据保护和企业文件同步及共享。图2显示了今年成熟度曲线中评估的几项存储技术在优先级矩阵上各自所处的位置。请注意:这是Gartner从一般的、跨行业的角度评估这些技术的效益。每家企业组织的图会因其特定的环境和目标而不同。

  

  图2:2015年存储技术优先级矩阵

  消失于成熟度曲线

  由于已到达平稳期,被认为“成熟主流”,下列技术消失于成熟度曲线:

  自动精简配置

  裸机恢复

  存储资源管理

  基于服务器的复制

  企业固态硬盘

  由于存在很大的重叠,读/写闪存缓存与输入/输出优化被合到一起分析了。

  处于上升期

  副本数据管理

  固态双列直接内存模块(DIMM)

  文件分析

  输入/输出优化

  处于峰值期

  基于云的备份服务

  信息分割算法

  集成系统:超融合

  开源存储

  数据清理

  虚拟存储设备

  软件定义存储

  集成备份设备

  滑向底谷

  灾难恢复即服务

  对象存储

  存储集群文件系统

  线性磁带文件系统(LTFS)

  企业端点备份

  基于以太网的光纤通道

  跨平台结构化数据归档

  自动存储分层

  新兴的数据存储保护方案

  云存储网关

  混合DIMM

  针对消息数据的SaaS归档

  存储多租户技术

  虚拟机备份及恢复

  联机数据压缩

  公有云(如阿里云)存储

  企业文件同步及共享(EFSS)

  爬上斜坡

  外部存储虚拟化

  重复数据删除

  基于设备的复制

  企业信息归档

  固态阵列

  持续性数据保护

  数据加密技术、传统硬盘和固态硬盘

  

  图3:2014年存储技术成熟度曲线

  

  表1:成熟度曲线阶段、效益评价和成熟度级别

  

  表2:效益评价

  

  表3:成熟度级别

  数据中心存储技术的演变之路

  

  这些年来,数据中心存储技术的演变之路兜了一个大圈后,回到了原处。传统的直接连接存储(DAS)比较简单,只运行内部需要的任务,后来慢慢变成了笨重、庞大、昂贵的存储附加网络/网络附加存储(SAN/ NAS)系统。近些年来,由于诸多技术进步,我们又回到了一种更高效、更有效的系统。通过仔细分析这个发展过程,我们就能充分理解数据中心存储技术获得当前这种能力所经历的转变。

  DAS、NAS和数据的急剧增长

  综观数据中心存储的发展历史,我们一定要从它的源头:DAS开始入手。每台特定的应用服务器都将自己的磁盘连接至同一个存储设备,以便提供专用存储。数据库服务器有自己的磁盘,拥有自己的保护和冗余级别;安全服务器必须处理自己的本地传统硬盘,而每个部件都是独立的。下一个发展阶段是存储附加网络(SAN),这包括基于磁盘集群的存储设备。大多数企业工作负载数据库(比如甲骨文、SQL、Exchange、DB2和文件)完全托管在外部磁盘阵列上。控制器主要支持诸如SATA、SAS或光纤通道之类的协议。磁盘阵列可以为整个企业组织提供容量、保护和复制。IT管理人员可以设置不同的支持级别,并且相应执行集中安全措施,比如防火墙、反病毒和系统审计。

  面临的挑战

  企业组织生成和使用的数据量可能急剧增长,导致存储、部署和管理成为一大挑战。如今,具体的监管法规要求企业跟踪、存储及分析关于用户的更多信息。于是,企业部署了大数据分析之类的工作负载(原始数据数量巨大),以评估数据、获取商业智能。然后,需要保存这些数据的多个副本,确保高可用性。总的来说,活动的应用数据只占数据总量的四分之一左右,因为剩余数据被快照、灾难恢复、RAID组和热备份(要是系统出现危机,热备份可以恢复到生产环境)被占据。

  不久前,磁盘主要使用传统硬盘技术,而不是我们在如今的相机和手机等设备上看到使用的非易失性存储器。然而,为了获得最佳性能和更短的响应时间,需要添加越来越多的磁盘。这种方法的缺点是,大多数普通操作系统无法管理那么多的磁盘。控制与一台PC有关的两三块磁盘可以,但是面对400块磁盘就要复杂得多,更何况形形色色的存储管理任务,比如数据分段、计算RAID奇偶校验、管理热备份、数据擦除以及跨多个站点来复制数据(同步或者异步复制),以确保高可用性和备份。

  因为这些存储挑战,SAN设备成为了笨拙的大型系统,消耗大量的物理资源,如电力和场地。由于需要连接到光纤通道架构(fabric)、路由器和交换机,它们还需要投入相当多的成本。此外,需要的所有资源必须是冗余的。活动存储和实际容量的比率成为1:4。需要引入第三方来管理软件,还需要专门的IT人员来管理环境。

  下一个阶段:虚拟化存储

  为了方便管理和操作,下一个步骤是存储虚拟化:一个新的层将物理块设备与逻辑存储卷分开来。这实现了各种功能,比如:跨不同的资源池实时迁移卷,在高速磁盘与低速磁盘之间转移数据,以及存储具有弹性。此外,它还允许智能缓存、同步和异步复制、可感知应用程序的快照以及更多功能。有了虚拟化,物理设备之间迁移数据变得极其容易,并将项目时间从几个月缩短至几周。因而减少了购买物理设备带来的麻烦,从而可以最有效地利用底层的物理存储资源。

  然而,虚拟化存储基于服务整个企业组织的中央设备,这限制了可扩展性(或导致成本高昂),并且增加了SAN光纤通道架构的数量和整体存储操作的复杂性。

  重大的技术进步

  在过去几年,现代的应用程序架构发生了巨大的变化。现在,最现代的工作负载可驻留在不需要外部存储的服务器上。Hadoop、Cassandra及其他分布式方法,这些新技术可以简化管理拥有诸多节点的集群这一任务。比如说,需要大量处理器资源的复杂的数据分析工作负载现在可以分布在多个节点上。此外,超融合系统也引入了新的分布式存储技术,用到了简单的卷和固态硬盘(SSD)。

  超融合和分布式存储

  首先,数据中心存储方面出现的最重要变化就是,消除了RAID控制器,这种专用服务器用来管理外部存储系统中的多块磁盘。在超融合基础设施中,计算、存储和网络等子系统整合到同一个设备中。通过将固态硬盘卷连接至服务器,我们就能做到,数据中心的操作系统软件足够智能、足够快速,能够与该服务器在集群中的其他服务器共享数据和容量。可依赖10Gb网络来回传输数据块,而之前数据块要发送到外部存储设备。它们可以在几个节点之间同步传输这些信息,保存几个副本,同时针对合适的区域实行重复数据删除和压缩等操作。存储快照和复制功能在服务器自身里面已被启用,不需要第三方干预或者专用网关服务器。

  10Gb网络

  支持这种新方法的一大市场变化来自网络。10Gb网络变得流行起来,而且成本更低,因而能够通过集群快速传输数据块。借助新的超融合技术,多路数据能够在几个节点上同时传输(即分布式存储),并在整个集群上转移。这便于开发支持更高性能和弹性的方法以及算法。

  SSD

  SSD在数据中心存储的发展过程中发挥了主要作用,因为使用单单一块磁盘就能获得同样的工作负载性能。SSD还具有耗电量低、碳排放量少的优点。

  最后说明

  在数据中心存储技术的发展过程中,客户和IT管理人员对云技术已变得非常熟悉。比如说,如果你问他们云存储具有什么样的价值,他们可能告诉你,云以一种弹性、可扩展、按需提供的方式,提供了所需的存储空间和计算能力。你不会听到他们提到后端磁盘厂商,因为它们在云环境下根本无关紧要。云计算相当于一种新语言,用户已准备接受这种新语言,欢迎云理念。在公有云和私有云,用户们在寻找可以轻松管理资源池的智能软件。

  数据中心存储技术的演变之路始于只有一台服务器的连接存储,如今进化到一切资源都合并到特定孤岛的阶段。现在,我们看到以前的方法卷土重来,不过由于种种技术进步,这回一切显得更自然、更高效。