一种智能网络磁盘(IND)存储系统结构的研究_.doc

上传人:scccc 文档编号:11592225 上传时间:2021-08-25 格式:DOC 页数:11 大小:1.07MB
返回 下载 相关 举报
一种智能网络磁盘(IND)存储系统结构的研究_.doc_第1页
第1页 / 共11页
一种智能网络磁盘(IND)存储系统结构的研究_.doc_第2页
第2页 / 共11页
一种智能网络磁盘(IND)存储系统结构的研究_.doc_第3页
第3页 / 共11页
一种智能网络磁盘(IND)存储系统结构的研究_.doc_第4页
第4页 / 共11页
一种智能网络磁盘(IND)存储系统结构的研究_.doc_第5页
第5页 / 共11页
点击查看更多>>
资源描述

《一种智能网络磁盘(IND)存储系统结构的研究_.doc》由会员分享,可在线阅读,更多相关《一种智能网络磁盘(IND)存储系统结构的研究_.doc(11页珍藏版)》请在三一文库上搜索。

1、一种智能网络磁盘(IND)存储系统结构的研究* 收稿日期:2006-01-09。本项研究工作受国家自然科学基金项目(60573145)、湖南省自然科学基金项目(05JJ30120)、广州市科技计划项目(2007J1-C0401)资助。赵跃龙,男,1958年生,博士,教授,博士生导师,主要从事计算机外存储系统等方面的研究工作;E-mail: 。戴祖雄,男,1964年生,博士研究生,主要从事计算机网络存储方面的研究工作。王志刚,男,1962年生,博士研究生,主要从事计算机体系结构方面的研究工作。杨 希,男,1970年生,博士研究生,主要从事计算机网络存储方面的研究工作。赵跃龙1、2) 戴祖雄2、

2、3) 王志刚2) 杨希2) 1 )( 华南理工大学计算机科学与工程学院 广州 510640 ) 2 )( 中南大学信息科学与工程学院 长沙 410083 )3 )( 湖南科技大学计算机科学与工程学院 湘潭 411201 )摘 要 针对当前计算机存储系统结构中存在的若干问题,本文提出了一种新型的智能网络磁盘(IND-Intelligent Network Disk)存储系统结构。分别给出了IND内部数据的读/写控制、容错处理、负载平衡等智能控制算法,已经构建了一个IND结构的模拟原型IND存储系统。IND存储系统中各个IND都是直接与网络连接,若干个IND组成一个集群存储系统,给用户提供了一个虚

3、拟化的海量存储系统。另外,由于各IND都具有一定的智能度,所以它是一种灵活可变的智能型网络存储器系统。关键词 智能网络磁盘(IND);IND存储系统;读/写控制;容错处理;负载平衡中图分类号:TP303Research on Storage System ArchitectureOf the Intelligent Network Disk (IND)ZHAO Yue-Long 1、2) DAI Zu-Xiong 2、3) WANG Zhi-Gang 2) YANG Xi 2)1 ) ( School of Computer Science and Engineering, South Chi

4、na University of Technology, Guangzhou 510640 )2 ) ( School of Information Science and Engineering, Central South University, Changsha 410083 )3 ) ( School of Computer Science and Engineering, Hunan University of Science and Technology, Xiangtan 411201 )Abstract In this paper, some problems on stora

5、ge system architecture of computer network are analyzed, a novel storage system architecture of the Intelligent Network Disk (IND) is presented. The internal read and write control algorithms, the tolerant-fault strategies, and the workload balance algorithms for the IND storage system, are all desc

6、ribed in detail. Also a basic experimental system of the IND storage architecture has been constructed. Since each IND of the IND storage system is linked directly to the high LAN, some INDs can form a network cluster of storage system. And, it will provide a virtual huge storage system for users. I

7、n addition, as each IND has some intelligence, the IND storage system is a flexible Intelligent Network Storage System. Keywords Intelligent Network Disk; IND Storage System; Read/ Write control; Tolerant-Fault; Workload Balance21 引言随着互联网技术的迅速发展,网络上的数据信息已经呈爆炸性地增长,Internet上无穷无尽的信息资源迫切需要有一个网络结构形式的海量存储

8、系统来进行大容量的信息存储。由于信息内容的丰富性和多媒体化对大存储容量的需求、巨大数量的用户群及响应时间的要求对存储器系统的性能提出了更加苛刻的要求。目前的磁盘阵列(RAID)、光盘阵列、高速磁带库系统等大容量存储系统等均无法在存储容量、可用性、高速度、可扩展性、数据备份以及灾难恢复等方面满足这些要求。面对这种急切的需求,现有的存储器体系结构和存取技术已经受到空前的挑战和压力。但是这些强烈的需求也激励着人们不断地去探索新的技术和方法,促使人们除了在存储设备层次上进行探索外,更多的是还必须要从存储系统的体系结构和管理软件等方面来深层次地考虑和解决问题。为了顺应这种强烈的需求,近年来分别诞生了NA

9、S 和SAN 1 12 两种结构的网络存储技术,目前它们已经获得了比较广泛的应用,也是当前计算机存储器技术研究领域内的重要研究方向之一。但是,现在的NAS和SAN这两种网络存储体系结构中也存在一些问题:(1)NAS虽然基于将控制流和数据流分开的思想,能够在物理连接上将存储器直接连到网络上,不再挂在服务器后端。服务器仅起控制管理的作用,从而减轻服务器的工作负载使系统的整体性能得到提高,但随着文件请求增加到一定程度,服务器的性能会下降。各个NAS设备之间的数据信息不容易聚合,而且NAS的集中式“瘦文件服务器”结构容易产生单点故障失效问题13。(2) SAN虽然可以提供较高速的数据块传送、可伸缩的虚

10、拟存储和远程备份,但一般需要专门的光纤交换机设备和光接口的存储器,所以它是一种成本较高的网络存储方案 14 15;SAN中也存在对数据的文件级I/O访问的支持比较弱的问题。(3)在NAS和SAN的网络存储结构中每个磁盘存储器都是“被动”地响应“读/写”请求,磁盘驱动器是没有“主动”权去进行自主工作;在主机没有发出“读/写”请求时,整个存储器网络都处于“空闲”状态,浪费了宝贵的网络带宽资源。另外在整个存储器网络中一般缺少负载自动平衡的机制等等。因此,研究一种能较好地解决NAS和SAN结构中存在问题的解决方案是非常必要和有意义的。2 智能网络磁盘(IND)存储系统结构基于此,本文提出了一种新型的、

11、能够适应于网络存储的智能网络磁盘(IND-Intelligent Network Disk)的系统结构。这种智能网络磁盘(IND)的逻辑结构如图1所示:图1 智能网络磁盘(IND)硬件逻辑结构图在图1所示的智能网络磁盘(以下均简称IND)的逻辑结构图中,已经将传统的磁盘存储器改造成了带有网络接口(Inerface Network Card)、Memory存储器和控制器(Controller)的硬件逻辑结构,需要说明的是:这里所指的Memory存储器和控制器(Controller)与有些磁盘存储器内部的Cache和控制器并不一样,网络接口是为了便于IND与网络直接相连接。Memory存储器主要是

12、用来存放集成在IND上的微型文件管理服务程序和一些关于IND之间的消息通信、分布式存储控制策略、容错、负载均衡等智能算法程序。控制器(Controller)则是负责处理IND与网络连接、完成执行智能控制算法等功能的控制中心。由上述的若干个IND可以组成一种新型的智能网络磁盘(IND)存储系统,这种智能网络磁盘(IND)存储系统的拓扑结构如图2所示:图2 智能网络磁盘(IND)存储系统拓扑结构图在IND与网络的拓扑连接示意图中,我们对网络中的IND进行了集群(Cluster)处理,将所有的IND分成了两个集群Cluster 1和Cluster 2(实际上根据需要,也可以将全部的IND组成任意个我

13、们所希望的集群个数)来处理。这种方法有利于今后整个存储器网络的扩展和控制,而且配置也比较灵活。 在图2的网络拓扑连接中,还设立了一个安全认证与配置服务器,主要是用来解决整个IND存储器网络的安全问题和存储器网络结构信息的初始化配置问题。在安全认证与配置服务器中,安全认证服务所占的比重较大,而配置服务因为IND的特殊结构,相对来说比较小,这样也保证了服务器的负载不至于太重。 值得注意的是,在上面的网络拓扑连接示意图中,本文提出的每个IND磁盘都是与高速网络直接连接的,它为用户(客户机)进行数据文件I/O存取提供了最短的数据访问路径。在安全认证与配置服务器和各个IND磁盘之间也没有专门的“私有”网

14、络和命令通道;安全认证与配置服务器并不对IND进行直接控制,安全认证与配置服务器只是在当网络存储器(IND)需要扩展时才负责广播新的网络结构信息。因此,这种结构克服了NAS结构中的“集中”式文件服务器对网络存储的数据存取速度所造成不利的影响问题。由于将文件服务器的功能下放到了每一个IND上,所以在上面的网络结构中已经没有专门的文件服务器。即:在各IND上都集成了一个微型文件服务程序来负责其文件的管理与操作,每个IND都能独立自主地对各自磁盘上的文件进行I/O存取操作。另外还赋予了各个IND一定的自主权和智能,譬如:将通过采用一系列的智能控制算法来解决各个IND之间的消息通信、分布式存储控制策略

15、、容错处理和负载均衡等问题。这些技术措施可以保证每个IND能够更好地进行独立自主的工作,等等。因此,本文提出的这种智能网络磁盘(IND)存储系统结构对前面提到的网络存储器中存在的一些问题给出了解决方案,在系统结构上有一定的特点。 为简化起见,以下均将智能网络磁盘(IND)存储系统简称为“IND存储系统”,下面将重点对IND存储系统内部的读/写控制策略、容错处理、负载平衡等智能控制算法进行介绍和说明。3 IND存储系统工作原理3.1 存储系统工作模型为了便于理解和说明,本文给出了仅含一个集群的IND存储系统的数据读/写工作模型如图3所示:图3 IND存储系统的数据读/写工作模型图图3中的五个IN

16、D已经被“虚拟”为一个很大的网络逻辑磁盘,并且有一个统一对外的唯一 “存储”IP地址,即:IND存储系统的公共IP地址。为了方便起见,这里假设其IP地址为202.197.64.5,这样、网络上的任何客户机或者服务器都可以通过这个公共IP地址来访问IND存储系统(每个IND都有一个内部的子IP地址,如IND3的IP地址为:192.168.0.3)。因此IND存储器系统对用户来说是透明的,非常方便。每个IND上的存储空间被划分为2个区域:记录区、备份区。各IND上的控制软件则由嵌入式网络操作系统、网络接口控制软件、网络通信软件、磁盘驱动程序、文件路由表(FAT_ARP)等几部分组成,它们被固化在I

17、ND的Flash或者ROM区中。IND上的记录区的作用是:将来自某主机的经过文件路由表“路由”过的一个“数据流”文件的内容记录在相应的INDip上。而IND上的备份区的作用是:为了便于容错处理,当在某个INDi上记录一个“数据流”文件的同时,根据某种容错算法,也把同一个“数据流”文件内容记录在另外一个INDj上进行数据冗余备份。这样便于日后一旦INDi上记录的“数据流”文件不能进行读/写时,便可根据其对应的容错算法,引导存储系统去访问原来存储在INDj上的备份“数据流”文件,从而达到进行容错的目的。3.2 读/写控制算法3.2.1 FAT_ARP表对IND存储系统中的文件进行管理和操作,必须有

18、某种文件管理的存取模式和方法。本文是通过设置一个“文件路由表(FAT_ARP)”的数据表结构来加以实现。其中FAT_ARP表结构如表1所示:表1 FAT_ARP表从表1可以看出FAT_ARP表是一张记录了整个IND存储系统内容的“索引”文件分配表,各个“数据流”文件是按一定的负载情况分布在不同的IND上。FAT_ARP具有文件“路由”的功能,它相当于是一个具有“软交换”功能的域名网关,当来自网络上的客户机或者服务器利用IND系统提供的“公共”IP地址来访问这个IND存储系统时,可以根据文件路由表的“路由”的功能,将IND存储系统的公共IP地址转化为IND网络存储器系统内部的某个IND的IP地址

19、,这样就可以使得主机系统I/O请求可以具体地分解到内部存储系统相应的INDip上去进行操作或者访问。任何客户机或者服务器都可以通过这个存储器的IP地址来访问IND存储系统,该存储器系统对用户来说是透明的。因为系统中所有的IND上的文件路由表内容都是相同的,也就是说每个IND上的文件路由表都是一张记录了整个IND存储系统的文件分配表(具有文件“路由”的功能),所以该系统对客户端提出的网络存储I/O请求,还可根据各IND的负载情况来确定响应该I/O请求的某个IND。因此负载可以比较均衡地分配到各IND上去。另外,由于系统中不存在因所有的请求都要经过某一部件处理而引起的瓶颈隐患,所以即使是某个IND

20、出现故障,也不会影响其它IND的正常工作(至多是处于降级模式下运行),因此IND存储系统中不存在单点故障问题。3.2.2 智能读/写控制算法(1)当要进行读/写的“数据流”文件记录恰好位于当前访问的IND的某个记录区(如图3中的IND3)上时,可以采用以下智能调度算法来进行读/写:(2)如果要进行读/写的文件记录不在当前访问的IND的记录区(如图3中的IND1)上时,那么就必须将相应的I/O命令传送到包含有该读/写的文件记录信息的IND(如图3中的IND2)上去进行控制读/写操作。可以采用下面的智能调度算法来实现:3.3 容错处理同样为了便于解释和说明,下面给出了只有一个集群的IND存储系统的

21、容错工作模型,如图4所示: 图4 IND存储系统的容错工作模型示意图如图3和图4所示,在IND存储系统中,已经设置了专门的备份区来存储记录区的冗余信息进行容错处理。其设计思想是:当在某个INDi上记录一个“数据流”文件的同时,根据容错算法,也把同一个“数据流”文件内容记录在另外一个INDj上来进行冗余备份。一旦INDi盘上记录的“数据流”文件不能进行读/写时,便可根据其对应的容错算法,引导存储系统去访问存储在INDj上记录的备份“数据流”文件;这样做提高了整个IND存储系统的可用性和可靠性。本文给出了一种类似于磁盘阵列中RAID_ 5的数据冗余备份策略 16 对IND存储系统进行容错处理。这里

22、容错处理算法采用“右旋转校验读/写法”,亦即拟采用下面的计算公式来确定备份磁盘(备份IND)的IP地址:IP备份磁盘 = IP MOD N + 1 (1)(这里N =5 ,它是集群存储系统中的IND的最大个数)下面分别给出IND存储系统在数据备份和容错读出的算法如下:a、数据冗余备份算法: 考虑到冗余数据备份一般是在写IND的时候才发生的情况 (正常“写”操作时的“冗余”数据备份,如图4上IND1的“写”操作),所以给出如下的数据冗余备份算法:b、智能容错读出算法(降级模式): 当发生不能从某个IND读出数据信息的情况时,就必须采取如下的智能容错读出算法(以降级模式进行工作)从备份磁盘(备份I

23、ND)来将备份信息读出(如图4上的IND3的“读”操作)。其算法如下:4 IND存储系统的其它智能特性4.1 H-IND(主IND)自动选举的智能算法因为在IND存储系统中,每个IND都是直接面向网络用户的,任何一个IND都具有响应客户端I/O请求的能力(只要它“空闲”),因此当网络中某个文件I/O请求随机到达时,有可能会发生“存储竞争”或“存储目标不明确”的无序性现象问题。为了避免这种现象发生,必须设计一种主IND(H-IND)自动选举的智能算法。即:某一时刻在IND存储系统中通过某种智能算法自动选举一个IND作为H-IND。当H-IND选举产生后,则在当前开始的一个时间段内,由该H-IND

24、负责接收网络传来的I/O请求(它充当临时“文件服务器” 的角色,而其它IND则接受它的调度和指挥),通过H-IND上的FAT_ARP(文件路由表)和智能读/写控制算法,将I/O请求命令有选择性地转发给某个IND(也有可能就是自己本身所在的H-IND)来进行文件I/O处理。本文提出一种H-IND自动选举的智能算法如下:算法5:Setp1:从FAT_ARP表中获取基本数据信息,计算IND存储系统中各INDi的CPU利用率Hcpu-i。Setp2:计算各个IND的权值:设某一时刻IND存储系统的网络状况为S(一般值为“0”或者“1”,分别表示可用或者不可用),各个IND的空闲容量为C i 则该时刻I

25、ND i的权值W i 为:W i = S * Hcpu-i * C i / ( 2 )按照公式( 1 )分别计算出各个IND的Wi(i=1,2.n),可以得到如下的权值分布表:W = W1, W2, . Wn i(1.n) (3)Step3:从W中求出权值为最大的IND max:IND max = MAX W1.W2,.Wn ( 4 )Step4:将IND max设定为H-IND (主IND):H-IND = IND maxStep5:采用“心跳”机制监视H-IND的工作情况:如果H-IND工作一切正常则转Step6。否则如果H-IND工作不正常,则从IND存储系统中将对应的IND max去掉

26、, 即从IND上的FAT_ARP中将该IND max去掉,并自动返回Step2, 重新选举一个新的IND max 作为H-IND。Step6:算法结束,继续采用“心跳”机制监视H-IND的工作情况。4.2 实现负载平衡的智能“写”算法为了实现前面提到的H-IND的功能,我们在H-IND上驻留了一个监控程序,它的主要职责就是通过FAT_ARP表和读/写控制算法来响应客户请求并且转发客户的I/O请求给合适的IND (或者H-IND)去具体操作。对于Read命令请求,H-IND 将访问命令直接转发给相应的IND即可。但是对于Write 请求,IND存储系统则必须考虑负载平衡问题,因此在H-IND上运

27、行的监控程序中必须有某种负载平衡智能算法来选择合适的IND存放文件。下面给出一种能够实现负载平衡“写”的智能算法如下:算法6:Setp1:从FAT_ARP表中获取基本数据信息,建立一张IND存储系统内部的“动态”负载表IND_D_LT。因为在IND存储系统中,Read和Write将引发大量数据流,所以为了量化IND的负载,H-IND另外还将记下每个Read/Write请求处理时间t和数据量d。假设在(0,T)的时间段内,某INDi已经处理了n个请求,每个耗时为ti ,每次存取的数据量为di ,则INDi的“动态”负载可表征为: (5)据此可以建立一个IND存储系统内部的“动态”负载的IND_D

28、_LT表(线性表)为:B = B1. B2, . Bn i(1.n) (6)Step2:从B中求出负载为最小的IND min : IND min = MIN B1.B2,.Bn (7)Step3: 查寻IND存储系统的IND_D_LT表,选取负载最小的IND作为存储对象来响应来自客户机的文件I/O请求。这样可以使得负载比较小的IND相对于负载较大的IND多服务一些I/O请求,也使得处理I/O请求与IND的处理能力的比值是比较均匀的,达到负载自动平衡的效果。Step4:,释放IND_D_LT表占用的内存空间,更新FAT_ARP表中的内容。Step5:算法结束,继续接收和响应来自客户机的文件I/O

29、请求,开始新的一轮负载平衡“写”调度算法。4.3 二次“主动”负载平衡的智能处理算法当在某一个时间段内,如果IND存储系统没有接收到来自客户机的任何文件I/O请求时,就可以利用这段空闲时间来“主动”地第二次(进一步)调整其内部的“静态”负载分布情况,这也是IND存储系统的一个最具“智能”性的特征。本文给出一种基本的智能算法思想如下:算法7:Step1:从FAT_ARP中获取基本数据信息,建立一张IND存储系统内部各个IND“静态负载率表”IND_S_LT。设网络“空闲”时,某INDi上格式化存储容量为C1,现在已占用的存储空间为C2 ,则各个INDi的“静态负载率”情况可表征为:L i = C

30、2i / C1i, 则IND存储系统的“静态负载率表”的线性表(IND_S_LT)可表示为: L = L1. L2,. Ln i(1.n) (8)此时,IND存储系统的平均负载率为: (9)Step2:从IND_S_LT表中,分别选出负载率最重的IND i和负载率最轻的IND j。IND max = MAX L1.L2,.Ln (10) IND i = IND max IND min = MIN L1.L2,.Ln (11)IND j= IND min Step3:将INDi上一些文件数据迁移到INDj上来平衡两个IND上的负载。Step4:分别更新FAT_ARP表和IND_S_LT表中的内容

31、。Step5:如果IND存储系统的网络仍然空闲,且IND_S_LT表中的各项Li Lp i(1.n),则转Step1开始下一轮的“内部负载平衡”调度算法(继续从IND_S_LT表中自动选出新的负载最重的IND i和负载最轻的IND j,将IND i上一些文件数据迁移到INDj上来平衡两个IND上的负载)。否则进入Step6。Step6:算法结束,准备接收和响应来自客户机的文件I/O请求。5 智能网络磁盘(IND)存储系统的仿真实验和性能测试因为目前设计的IND硬件电路正在调式中,所以暂时采用了PC台式计算机来仿真IND(因为IND实际上是一台嵌入式的精简PC机)存储系统,现在构建了一个具有IN

32、D结构的模拟原型网络存储器子系统;已经分别采用Java语言将上述的文件路由表存取控制方法、读/写控制策略、容错处理、H-IND自动选举、负载平衡“写”、内部负载自动平衡等智能算法在模拟存储系统中进行了实验研究。在以下的实验系统里的各种设备的具体配置为:(a) 模拟IND(PC机)的配置为:P4 CPU、512M内存、120G硬盘和100M网卡,运行Windows 2003操作系统,所有的模拟IND(PC机)都通过100M交换机直接与局域网相连。(b) 各客户机的配置为:P667 CPU、256M内存、160G硬盘和100M网卡,运行Windows 2003操作系统。(C)在各模拟IND(PC机

33、)上驻留了前面提及的用Java语言编写的各种算法软件,而在每个客户机上则运行对模拟IND存储实验原型系统进行随机文件的读/写操作的测试软件。1) IND实验存储系统的“读/写”性能测试(如图5、图6、图7所示):实验的目的是测试在不同IND数目情况下该实验原型系统的I/O处理性能。图5 IND存储系统“写”测试结果 图6 IND存储系统“读”测试结果图7不同IND数量情况下的IND存储系统的I/O处理性能从上面的测试结果可以看到随着IND数目的增加,IND存储实验系统的I/O处理能力也在增强(如图7所示),这与理论分析结果是相符合的;另一方面,这些实验结果也证明了前面提出的各种算法的有效性,已

34、经达到了预定的设计要求。2)IND存储系统与DAS、NAS的处理性能测试比较下面给出了IND存储实验系统与DAS、NAS的性能比较测试结果如下图8所示:图8 IND存储系统与DAS、NAS的测试结果比较上面的测试实际上是NetBench测试,其中NAS采用了HP Proliant DL380G4型号的NAS服务器产品,而DAS则采用了国产服务器MR100A(Xeon 2.4 G/512M)型号的产品参加测试。从图8可以看到,IND存储系统的处理能力明显要比DAS、NAS处理能力要高,这也进一步证明了IND存储系统设计的有效性和性能优点。3)IND存储系统与DAS、NAS的负载平衡效果比较下面给

35、出了IND存储实验系统与DAS、NAS的负载平衡效果测试结果如图9所示:图9 IND存储系统与DAS、NAS的负载平衡比较 图9的实验环境与图8的实验环境相同,从实验结果可以看到IND存储系统的负载平衡效果明显要比DAS、NAS好,这是因为IND存储系统通过智能化的“写”负载平衡和在网络空闲时进行的“二次自动负载”的两次负载平衡的控制算法,所以负载平衡的效果比较好。6 结束语本文提出了一种新型的能够适应于网络存储的智能网络磁盘(IND)的存储系统结构,对这种IND存储系统的读/写控制策略、容错处理、智能负载平衡等算法进行了研究。目前已经构建了一个具有IND结构的模拟原型网络存储器子系统。这种I

36、ND存储系统具有能够直接与网络连接、存储容量大、存取速度快、可扩充性好、自动负载平衡等特点。本项研究工作的下一个目标是对智能网络磁盘(IND)存储系统的多个IND的并行I/O操作、分布式存储控制策略和集群配置算法以及安全性问题进行更加深入的分析和研究,进一步开发这种IND存储系统的分布式“并行”处理能力,使得该存储器系统能够成为一个集 “高容量”、“快速”、“安全”、“智能”等诸多优异性能于一体的新型智能型网络存储系统。参 考 文 献【1】Gibson G A and Meter R V. Network- attached storage architecture. Communicatio

37、n of the ACM, 2000, 43 (11):11-17【2】Katz R H. Network-attached storage systems / Proceedings of Conference on Scalable High Performance Computing. Williamsburg, VA, USA, IEEE Computer Society, 1992: 68-75【3】Bright J D and Candy J A. A scalable architecture for clustered network attached storage / Pr

38、oceedings of the 20th IEEE/11th NASA Goddard Conf. on Mass storage systems and technologies (MSS03). San Diego, CA, USA, IEEE Computer Society, 2003:196-206【4】Yasuda Y, Kawamoto Ebata S,Ebata A,Okitsu J and Hitachi H. Concept and Evaluation of X-NAS: a Highly Scalable NAS System / Proc. of the 20th

39、IEEE/11th NASA Goddard Conference on Mass Storage Systems and Technologies (MSS03), IEEE Computer Society ,2003: 219-227 【5】Georgiev I and Georgiev I I. An information-interconnectivity-based retrieval method for network-attached storage / Proceedings of the 1th Conference on Computing Frontiers, Ne

40、w York, USA, Communication of the ACM,2004: 268-275【6】Sohan R and Hand S. A User-Level Approach To Network Attached Storage / Proceedings of the IEEE Conference on Local Computer Networks 30th Anniversary(LCN05), IEEE Computer Society , 2005: 108-114【7】Phillips B. Have Storage Area Networks Come of

41、Age, Computer, 1998,31(7): 10-12.【8】Menon J, Pease D A, Rees R, Duyanovich L and Hillsberg B. IBM Storage Tank- A heterogeneous scalable SAN file system. IBM Systems Journal, 2003,42(2): 250-267【9】Glider J S, Fuente C F and Scales W J. The software architecture of a SAN storage control system, IBM S

42、ystems Journal, 2003, 42(2): 232-249.【10】Samuel S. Delivering the Promise of the Storage Area Network, IEEE Distributed Systems Online, IEEE Computer Society, 2004, 5 (9): 1-5【11】Aizikowitz N, Glikson A, Landau A, Mendelson B and Sandbank T. Component-based performance modeling of a storage area net

43、work / Proceedings of the 37th Conference on Winter Simulation, Orlando, Florida, USA, Winter Simulation Conference, 2005: 2417-2426.【12】IBM. Introduction to Storage Area Network (SAN) EB/OL. 2006-07-10,http:/ sg245470.html.【13】Yokota H. Autonomous disks for advanced database applications / Proceedi

44、ngs of the 1999 International Symposium on Database Applications in Non-Traditional Environments (DATE99) ,Kyoto, Japan, IEEE Computer Society, 1999: 435- 442【14】Staley J, Muknahallipatna S and Johnson P. Fibre Channel based Storage Area Network Modeling using OPNET for Large Fabric Simulations: Pre

45、liminary Work / Proceedings of the 32nd IEEE Conference on Local Computer Networks, IEEE Computer Society, 2007: 234-236.【15】Brothers T J, Muknahallipatna S and Hamann J C. Fibre Channel Switch Modeling at Fibre Channel-2 Level for Large Fabric Storage Area Network Simulations using OMNeT+: Prelimin

46、ary Results / Proceedings of the 32nd IEEE Conference on Local Computer Networks, IEEE Computer Society, Washington, DC, USA ,2007: 191-202【16】Patterson D A, Gibson A and Katz R H. A Case for Redundant Arrays of Inexpensive Disks (RAID) / Proceedings of the 1988 ACM SIGMOD international Conference o

47、n management of data, New York, USA, Communication of the ACM, 1988: 109-116 ZHAO Yue-Long, male, born in 1958, professor, Ph.D. supervisor. His research interests include computer network storage, computer system Architecture, computer network communication, computer control and embedded system, computer vision and image processing. BackgroundDAI Zu-Xiong, male, born in 1964, Ph.D. candidate. His current research interests

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 社会民生


经营许可证编号:宁ICP备18001539号-1