ImageVerifierCode 换一换
格式:DOC , 页数:32 ,大小:3.51MB ,
资源ID:2956899      下载积分:20 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.docduoduo.com/d-2956899.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(EMC_VPLEX容灾系统实施方案.doc)为本站会员(tangtianxu1)主动上传,道客多多仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知道客多多(发送邮件至docduoduo@163.com或直接QQ联系客服),我们立即给予删除!

EMC_VPLEX容灾系统实施方案.doc

1、VPLEX容灾系统实施方案2013 年 12 月目 录1. 项目介绍 41.1 VPLEX 架构图 .41.2 本项目设备配置 .42. 存储规划 52.1 规划目标 .52.2 VPLEX 端口的使用 .53. SAN 网络规划 .63.1 现有拓扑示意图 .63.2 VPLEX 实施拓扑示意图 .73.3 设备 IP 规划 83.4 ZONE 规划 .84. VPLEX WITNESS 实施规划 105. 版本控制 115.1 ODM 版本的要求 .115.2 POWERHA 版本的要求 .115.3 POWERPATH 版本的要求 126. 与数据迁移相关的 VPLEX 配置 136.1

2、 应用系统数据迁移方式论述 .136.1.1 主机层面的迁移 136.1.2 存储层面的迁移 136.2 应用系统数据迁移实施步骤简述 .136.2.1 主机层面在线数据迁移方式实施步骤简述 136.2.2 VPLEX 层面的离线数据转移方式实施步骤简述 .146.2.3 应用系统从 VPLEX-Metro 回退到 DS4800 存储系统实施步骤简述 157. VPLEX METRO 实施步骤 .157.1 VPLEX 前期准备 .157.1.1 system volumes157.1.2 meta data volumes 157.1.3 logging volumes .167.2 SWI

3、TCH ZONING .177.3 BACKEND STORAGE PROVISIONQ177.4 VPLEX INITIAL SETUP .187.4.1 Config ip address and hostname of VPLEX.187.4.1.1 Connect to management server 187.4.1.2 entering the VPLEXCLI187.4.1.3 set the management server ip address187.4.1.4 change the hostname of VPLEX .187.4.1.5 check software

4、version 197.4.2 use EZ-setup to initialize the VPLEX1 .197.4.2.1 Start EZ-setup.197.4.2.2 Configure the first cluster 197.4.2.3 Chose the local authentication 197.4.2.4 Configure event notification 197.4.2.5 Configure send system report to EMC .207.4.2.6 Configure performance statistics collector 20

5、7.4.2.7 Generate the certificate.207.4.2.8 Backend storage discovery.217.4.2.9 create meta-data volume.217.4.2.10 verify if meta-data volume is successfully created 227.4.2.11 create meta-data volume backups.227.4.2.12 enable FE port 227.4.3 use EZ-setup to initialize the VPLEX2 .227.4.3.1 Connect t

6、o VPLEX2.227.4.3.2 Sychronize the time on the clusters.227.4.3.3 Start EZ-setup on cluster2237.4.3.4 Configure the Meta-data volume and backup of VPLEX2 237.4.3.5 Complete configuration of cluster1 .237.4.3.6 Complete configuration of cluster2 .237.4.4 Join the clusters .237.4.5 Create logging volum

7、es247.5 CHECK THE CLUSTER HEALTH 257.6 VPLEX BACKEND STORAGE CONNECTIVITY VERIFY257.7 CLAIM THE DATA VOLUME .258. 设备的使用 288.1 VPLEX 的使用 289. 系统测试 299.1 VPLEX 高可用测试 299.2 数据库高可用测试 .301.项目介绍XXX 灾备项目采用 EMC VPLEX METRO 解决方案,实现院区主机房和灾备机房容灾,结合实际情况本项目规划如下。1.1 VPLEX 架构图1.2 本项目设备配置本次规划的 EMCVPLEX 配置简要描述如下: 1

8、个处理器引擎两个控制器,8 个 8Gb 的 FC 前端口, 8 个 8Gb 的 FC 后端口 72GBCache VPLEX METRO 20TB本次规划的 EMC DS-300B SAN 交换机配置简要描述如下: 两台交换机,每台激活 24 个 8Gb 端口。2.存储规划规划目标HP 3PAR 和 IBM DS4800 存储使用 VPLEXMETRO 架构,并且满足 VPLEX METRO 双活的解决方案规划如下。2.2 VPLEX 端口的使用本项目中 vplex 版本为 vs2,每台 vplex 有 1 个引擎每个引擎有两个控制器。每台主机配置了 2 张双口 HBA 卡用于连接 VPLEX

9、,每张卡使用一个端口, VPLEX 的后端口用于连接 HP 3PAR 和 IBM DS4800。所有 VPLEX 端口的使用如下表所示:命名规则VPLEX 的端口命名规则: E1D0F0 代表引擎 1 的 director A 的 A0 模块的第 0 口HP 3PAR 的端口命名规则:3PAR_A_F0 代表控制器 A 的 FC 第 0 口Zone 的命名规则:VPLEXA_E1B2F2_3PAR_A_F0 代表 VPLEXA 的引擎 1 的 director B 的 B2模块的 2 口到 3PAR 控制器 A 的第 0 光纤口的 zonevplex 连接交换机端口Engine No.1Dir

10、ctorNo.B DirctorNo.AFE SW BE SW WAN SW FE SW BE SW WAN SWB0F3 B1F3 B3F3 A0F3 A1F3 A3F3B0F2 B1F2 B3F2 A0F2 A1F2 A3F2B0F1 B1F1 B3F1 A0F1 A1F1 A3F1B0F0 B1F0 B3F0 A0F0 A1F0 A3F0注:此图为一台 VPLEX 的端口连接图。3.SAN 网络规划本项目使用主机房的 SAN 交换机及新增的两台 DS-300B SAN 交换机,vplex 到一台交换机需要至少 4 个 FE,4 个 BE,4 个 Wan com,每台存储至少需要 4 个端

11、口。如情况允许,建议在生产机房搭建同机房的 vplex metro 环境,便于下一步的数据迁移。在数据迁移完成后,灾备机房环境准备好后,把 vplex metro 的 cluster-2 和 DS4800 搬运到灾备机房。此时生产机房和灾备机房 vplex metro 正常运行,不影响原有系统的运行。现有拓扑示意图3.2 VPLEX 实施拓扑示意图Vplex 在生产中心运行灾备中心准备好后 vplex 在生产中心和灾备中心运行注:线只代表路径,不代表实际数量。3.3 设备 IP 规划光纤需求(满配最高带宽设计)From To 光纤数量(至少数量) 类型VPLEX_A 生产中心 SAN 交换机

12、12 条 多模HP 3PAR 生产中心 SAN 交换机 4 条 多模VPLEX_B 灾备中心 SAN 交换机 12 条 多模IBM DS4800 灾备中心 SAN 交换机 4 条 多模网线需求设备名 网线数量 IP 地址 备注VPLEX_A 1 1 个 生产机房 VPLEX 管理地址VPLEX_B 1 1 个 容灾机房 VPLEX 管理地址DS-300B SAN 2 2 2 个管理 IP 注:IP 需求由客户工程师规划3.4 Zone 规划生产中心 VPLEX 与第一路 SAN 交换机端口的连接Port VPLEX port 备注VPLEX_0001_E1D01F0 VPLEX_0001 的前

13、端端口,连接主机的 HBAVPLEX_0001_E1D02F0 VPLEX_0001 的前端端口,连接主机的 HBAVPLEX_0001_E1D01B0 VPLEX_0001 的后端端口,连接后端存储系统的前端端口VPLEX_0001_E1D02B0 VPLEX_0001 的后端端口,连接后端存储系统的前端端口VPLEX_0001_E1D01W0 VPLEX_0001 的 WAN 端口VPLEX_0001_E1D02W0 VPLEX_0001 的 WAN 端口生产中心 VPLEX 与第二路 SAN 交换机端口的连接Port VPLEX port 备注VPLEX_0001_E1D01F1 VPL

14、EX_0001 的前端端口,连接主机的 HBAVPLEX_0001_E1D02F1 VPLEX_0001 的前端端口,连接主机的 HBAVPLEX_0001_E1D01B1 VPLEX_0001 的后端端口,连接后端存储系统的前端端口VPLEX_0001_E1D02B1 VPLEX_0001 的后端端口,连接后端存储系统的前端端口VPLEX_0001_E1D01W1 VPLEX_0001 的 WAN 端口VPLEX_0001_E1D02W1 VPLEX_0001 的 WAN 端口灾备中心 VPLEX 与第一路 SAN 交换机端口的连接Port VPLEX port 备注VPLEX_0002_E

15、1D01F0 VPLEX_0002 的前端端口,连接主机的 HBAVPLEX_0002_E1D02F0 VPLEX_0002 的前端端口,连接主机的 HBAVPLEX_0002_E1D01B0 VPLEX_0002 的后端端口,连接后端存储系统的前端端口VPLEX_0002_E1D02B0 VPLEX_0002 的后端端口,连接后端存储系统的前端端口VPLEX_0002_E1D01W0 VPLEX_0002 的 WAN 端口VPLEX_0002_E1D02W0 VPLEX_0002 的 WAN 端口灾备中心 VPLEX 与第二路 SAN 交换机端口的连接Port VPLEX port 备注VP

16、LEX_0002_E1D01F1 VPLEX_0002 的前端端口,连接主机的 HBAVPLEX_0002_E1D02F1 VPLEX_0002 的前端端口,连接主机的 HBAVPLEX_0002_E1D01B1 VPLEX_0002 的后端端口,连接后端存储系统的前端端口VPLEX_0002_E1D02B1 VPLEX_0002 的后端端口,连接后端存储系统的前端端口VPLEX_0002_E1D01W1 VPLEX_0002 的 WAN 端口VPLEX_0002_E1D02W1 VPLEX_0002 的 WAN 端口4.VPLEX Witness 实施规划VPLEX Witness 是对 V

17、PLEX 集群和集群间链路故障的仲裁判断和管理机制。如果认可VPLEX 故障概率大大低于 DWDM 链路,可以考虑不使用仲裁机 Witness。代价是如果生产VPLEX 不可用,需要手工激活容灾 VPLEX 并重启生产端业务。如有 VPLEX Witness,则对生产端 VPLEX 的故障有更完善的容灾处理机制,此情况下无需手工重新激活灾备端 VPLEX,业务可无缝继续维持运行。若实施 VPLEX Witness,需要以下需求: 冗余的 DWDM 链路 Witness 安装在区别于生产和灾备的第三机房 Witness 和 Vplex 通讯,使用区别于 DWDM 的 IP 链路 需要安装在 VM

18、ware FT 上面同时,建议增加一条容灾链路(与目前链路不同的运营商提供) ,保证整个双活架构的稳定性,避免意外停机的风险。并且 Witness 安装环境达到最佳实践要求。5.版本控制ODM 版本的要求5.2 PowerHA 版本的要求5.3 Powerpath 版本的要求6.与数据迁移相关的 VPLEX 配置应用系统数据迁移方式论述应用系统从传统的存储系统迁移到 VPLEX 环境下,有两种方式可以考虑,第一种迁移方式为主机层面的数据迁移方式,第二种迁移方式为 VPLEX 层面的数据转移方式。6.1.1 主机层面的迁移主机层面的在线数据迁移方式通常采用 LVM Mirror 作为数据迁移手段

19、,将应用系统不中断(在线)地从传统存储系统上迁移到 VPLEX 环境中,但是 VPLEX 环境需要有足够的存储空间,迁移步骤简述如下:1) VPLEX 分配存储空间给主机2) 主机通过 LVM Mirror 方式将数据从传统的存储系统上同步到 VPLEX 的存储空间上3) 主机释放传统的存储系统空间6.1.2 存储层面的迁移VPLEX 层面的离线数据转移方式将应用系统从传统的存储系统上转移到 VPLEX 环境中,在转移期间,应用系统需要停止运行,迁移步骤简述如下:1) 应用系统停止运行2) 存储系统回收应用系统使用的存储空间,然后将其分配给 VPLEX3) VPLEX 将存储空间进行“封装”后

20、创建分布式 LUN 分配给主机4) 恢复应用系统的运行6.2 应用系统数据迁移实施步骤简述6.2.1 主机层面在线数据迁移方式实施步骤简述1) 在主机上,安装支持 VPLEX 的 EMC ODM 软件2) 在 SAN Switch 上,增加主机与 VPLEX 前端端口之间的 ZONE3) 在 VPLEX 上,将磁盘设备分配给主机4) 在主机上,识别 VPLEX 的磁盘设备,并将其加入到相应的 VG 中5) 在主机上,通过 LVM Mirror 将数据迁移到 VPLEX 使用的磁盘空间上6) 在主机上,将 DS4800 的磁盘设备从 VG 中分离出来7) 在 unisphere 上,回收主机释放

21、出来的磁盘设备8) (可选)在 SAN Switch 上,删除主机与 DS4800 前端端口之间的 ZONE9) 在 unisphere 上 DS4800 将回收的磁盘空间分配给 VPLEX10) 在 VPLEX 上,将 DS4800 的磁盘设备“封装”成 VPLEX 的磁盘设备安装支持 VPLEX 的 EMC ODM 软件# uncompress EMC.AIX.5.3.0.5.tar.Z# tar -xvf EMC.AIX.5.3.0.5.tar# installp -ac -gX -d . EMC.Invista.aix.rte# installp -ac -gX -d . EMC.In

22、vista.fcp.rte# installp -ac -gX -d . EMC.Symmetrix.aix.rte ;如果已经安装,则忽略# installp -ac -gX -d . EMC.Symmetrix.fcp.rte ;如果已经安装,则忽略安装 EMC PowerPath 软件如果主机没有安装 PowerPath 软件,请参照“PowerPath for AIX Installation and Administration Guide.pdf”,安装和配置 PowerPath 软件。SAN Switch 上增加主机与 VPLEX 前端端口之间的 ZONE在 SAN Switch

23、 上,创建主机 HBA 与 VPLEX 前端端口之间的 ZONE。VPLEX 分配磁盘空间给主机根据应用系统所使用的磁盘设备的数量和大小,在 VPLEX 上创建相应数量和大小的 Distributed Device(由来自于 HP 3PAR 和 DS4800 的磁盘设备组合成 RAID 1 类型) ,并且创建包含这些 Distributed Device 的 Consistency Group,然后分配给主机。主机识别和配置 VPLEX 磁盘设备1) 运行“/usr/lpp/EMC/INVISTA/bin/emc_cfgmgrv”命令,识别和配置 VPLEX 磁盘设备2) 确认已经正确识别和配

24、置 VPLEX 磁盘设备# lsdev -Cc disk.hdisk2 Available 2V-08-01 EMC INVISTA FCP Diskhdisk3 Available 2K-08-01 EMC INVISTA FCP Disk3) 运行“powermtconfig”命令,配置 PowerPath 设备,并且确认 VPLEX 磁盘设备的 policy 是Adaptive在主机上通过 LVM Mirror 将数据同步到 VPLEX 磁盘设备上系统管理员通过 LVM Mirror,将数据同步到 VPLEX 磁盘设备上在主机上将旧的磁盘设备清除,保留 VPLEX 磁盘设备系统管理员将旧

25、的存储系统磁盘设备清除,保留 VPLEX 磁盘设备回收旧的磁盘设备在 unisphere 上,回收之前分配给主机使用的 DS4800 的磁盘设备,然后重新分配给 VPLEX。6.2.2 VPLEX 层面的离线数据转移方式实施步骤简述在 VPLEX 环境中,对后端存储系统的磁盘设备采用整盘封装的方式下,可以将应用系统完整的迁移到VPLEX 环境中。1) 在主机上,停止应用系统的运行2) 在主机上,删除相应的后端存储系统的磁盘设备3) 在主机上,安装支持 VPLEX 的 EMC ODM 软件4) 在后端存储系统上,取消主机对磁盘设备的访问5) (可选)在 SAN Switch 上,删除主机 HBA

26、 与后端存储系统前端之间的 ZONE6) 在 SAN Switch 上,增加 VPLEX 后端端口与后端存储系统前端之间的 ZONE7) 在 SAN Switch 上,增加主机 HBA 与 VPLEX 前端端口之间的 ZONE8) 在后端存储系统上,赋予 VPLEX 对磁盘设备的访问9) 在 VPLEX 上,对后端存储系统的磁盘设备进行整盘封装,以及增加镜像的操作10) 在 VPLEX 上,将封装后的 VPLEX 磁盘设备分配给主机11) 在主机上,识别和配置 VPLEX 的磁盘设备12) 在主机上,启动应用系统6.2.3 应用系统从 VPLEX-Metro 回退到 DS4800 存储系统实施

27、步骤简述在客户环境中,VPLEX 对后端存储系统的磁盘设备采用整盘封装的方式,因此,应用系统可以回退到传统的直接访问后端存储系统的磁盘设备的工作方式。1) 主机删除相应的 VPLEX 的磁盘设备2) VPLEX 上删除相应的 Storage View,取消主机对 VPLEX 磁盘设备的访问3) (可选)在 SAN Switch 上删除主机 HBA 与 VPLEX 前端之间的 ZONE4) (可选)在 SAN Switch 上删除 VPLEX 后端与后端存储系统前端之间的 ZONE5) 在后端存储系统上取消 VPLEX 对后端后端存储系统的磁盘设备的访问6) 在 SAN Switch 上增加主机

28、 HBA 与后端存储系统前端之间的 ZONE7) 在后端存储系统上分配磁盘设备给主机8) 主机识别后端存储系统的磁盘设备,启动应用系统9) 在 VPLEX 上,清除后端存储系统磁盘设备的配置信息7.VPLEX Metro 实施步骤VPLEX 前期准备7.1.1 system volumesVPLEX 的 system volumes 分为两种:metadata volumes 和 logging volumes7.1.2 meta data volumesmeta data volumes 里包含 VPLEX cluster 的系统配置信息,主要为: virtual-to-physical m

29、apping information data about the devices and virtual volumes system configuration settingsMeta data volume 建议为 Raid1 或者 Raid5 保护的卷,其对 I/O 性能的要求不高。每个 VPLEX Metro cluster 安装需要 4 个 78GB 的 volume,分别用于 meta-volume, mirrored copy of meta-volume, backups of meta-volume and mirrored-meta-volume.Cluster Met

30、a Volume Storage RAID Group LUN ID RAID Size 备注Mirror 1 800 RAID5 78GBBackup 1 801 RAID5 78GB 与HP 3PAR的系统共享磁盘Mirror 2 800 RAID5 78GBVPLEX_0001Backup 2 801 RAID5 78GB 与HP 3PAR的系统共享磁盘Mirror 1 900 RAID5 78GBBackup 1 901 RAID5 78GB 与DS4800系统共享磁盘Mirror 2 900 RAID5 78GBVPLEX_0002Backup 2 901 RAID5 78GB 与D

31、S4800的系统共享磁盘7.1.3 logging volumesLoggging volume 用于在 inter-link 断开时,记录 Site 之间的数据差异索引。建议 logging volumes 为 10GB 的 volume,10GB 的 logging volume 通常可以支持约 320TB 的分布式卷。Cluster Log Volume Storage RAID Group LUN ID RAID Size 备注Mirror 1 802 RAID5 10GB 与HP 3PAR的系统共享磁盘VPLEX_0001Mirror 2 802 RAID5 10GB 与HP 3PA

32、R的系统共享磁盘Mirror 1 902 RAID5 10GB 与DS4800系统共享磁盘VPLEX_0002Mirror 2 902 RAID5 10GB 与DS4800系统共享磁盘7.2 Switch zoning按照规划完成 VPLEX backend zoning7.3 Backend storage provisionqRegister VPLEX BE port on HP3PARAssign volume to VPLEX7.4 VPLEX initial setup7.4.1 Configip address and hostname of VPLEX7.4.1.1 Conne

33、ct to management serverconnectEthernet cable to the service port of mgmt server. Config your NIC use DHCP, ip address will be assigned in the range 128.221.252.Default user/password :service/MiDim7TService port IP: 128.221.252.2SSH client: SecureCRT or PUTTY7.4.1.2 entering the VPLEXCLI7.4.1.3 set t

34、he management server ipaddress7.4.1.4 change the hostname of VPLEX7.4.1.5 check software version7.4.2 use EZ-setup to initialize the VPLEX17.4.2.1 Start EZ-setup7.4.2.2 Configure the first cluster7.4.2.3 Chose the local authentication7.4.2.4 Configure event notification7.4.2.5 Configure send system

35、report to EMC7.4.2.6 Configure performance statistics collector7.4.2.7 Generate the certificate7.4.2.8 Backend storage discovery1) display eligible meta data volumes7.4.2.9 create meta-data volume7.4.2.10 verify if meta-data volume is successfully created7.4.2.11 create meta-data volume backups7.4.2

36、.12 enable FE port7.4.3 use EZ-setup to initialize the VPLEX27.4.3.1 Connect to VPLEX2Use SSH to connect to management IP of cluster 2, 7.4.3.2 Sychronize the time on the clusters7.4.3.3 Start EZ-setup on cluster27.4.3.4 Configure the Meta-data volume and backup of VPLEX2Use the same method to confi

37、gure the VPLEX2 meta-data volumes and backups7.4.3.5 Complete configuration of cluster17.4.3.6 Complete configuration of cluster27.4.4 Join the clustersFrom Vplexcli on cluster2 console, run the following command,7.4.5 Create logging volumes7.5 Check the cluster health7.6 VPLEX backend storage conne

38、ctivity verify7.7 Claim the data volume check if VPLEX can see the backend arraysVPlexcli:/ls -al /clusters/cluster-1/storage-elements/storage-arrays/clusters/cluster-1/storage-elements/storage-arrays:Name Connectivity Auto Ports Logical- Status Switch - Unit- - - - Count- - - - -EMC-CLARiiON-FNM000

39、94200051 ok true 0x50060160446019f5, 2520x50060166446019f5,0x50060168446419f5,0x5006016f446019f5 check backend volumesVPlexcli:/ls al /clusters/cluster-1/storage-elements/storage-volumes/clusters/cluster-1/storage-elements/storage-volumes/:Name VPD83 ID Capacity Use Vendor IO Status Type Thin Rebuil

40、d- - - - - - - - VPD83T3:6006016031111000d4991c2f7d50e011 VPD83T3:6006016031111000d4991c2f7d50e011 5G unclaimed DGC alive traditional false if can not see the volumes, use command to re-discoverVPlexcli:/cd /clusters/cluster-1/storage-elements/storage-arrays/EMC-CLARiiON-FNM00094200051VPlexcli:/clus

41、ters/cluster-1/storage-elements/storage-arrays/EMC-CLARiiON-FNM00094200051/array re-discoverWARNING: This command cannot detect LUN-swapping conditions on the array(s) being re-discovered. LUN swapping is the swapping of LUNs on the back-end. This command cannot detect LUN swapping conditions when t

42、he number of LUNs remains the same, but the underlying actual logical units change. I/O will not be disrupted on the LUNS that do not change. Continue? (Yes/No) y claim the data volumesClaim by use parameter “-appc” to ensure application consistency, because we have data on one leg of the mirror.VPl

43、excli:/storage-volume claim -d VPD83T3:6006016031111000d4991c2f7d50e011 -n lun_1 -appcThis can be confirmed by checking the Type of the storage-volume which should display as data-protected.VPlexcli:/ls al /clusters/cluster-1/storage-elements/storage-volumes/Name VPD83 ID Capacity Use Vendor IO Stat

44、us Type Thin Rebuild- - - - - - - -lun_1 VPD83T3:6006016031111000d4991c2f7d50e011 5G used DGC alive data-protected false8.设备的使用Vplex 的使用使用英文版的 Web browser: Firefox v3.5.5 or v3.5.7, or Internet Explorer 7(安装 Adobe Flash Player 10.0.0 or higher 插件)输入 https:/设备管理 IP9.系统测试Vplex 高可用测试a) 测试场景一:主机的一个光纤卡故障

45、测试步骤 预期结果 用 powermtdisplay dev=all 检查设备和路径状况 打开 iometer 对 lun 进行写操作 关闭一台服务器的 HBA 卡 再次用 powermtdisplay dev=all 检查设备和路径状况powermt 的输出中 hdiskpower#的两个通道上都有 IO 流量,且 IO 总流量比较接近。b) 测试场景二: VPLEX 的一个 Director 故障测试步骤 预期结果 用 powermtdisplay dev=all 检查设备和路径状况 打开 iometer 对 lun 进行写操作 在 putty 连接 vplex 后 director-1-

46、1-b:/opt/zephyr/bin # /sbin/shutdown -h now 再次用 powermtdisplay dev=all 检查设备和路径状况powermt 的输出中 hdiskpower#的两个通道上都有 IO 流量,且 IO 总流量比较接近。c) 测试场景三: VPLEX 后端存储的一个控制器故障测试步骤 预期结果 用 powermtdisplay dev=all 检查设备和路径状况 打开 iometer 对 lun 进行写操作 拔掉 director a 上与交换机连接的光纤 再次用 powermtdisplay dev=all 检查设备和路径状况powermt 的输出中 hdiskpower#的四个通道上都有 IO 流量,且 IO 总流量比较接近。d) 测试场景四: VPLEX 后端一台存储故障测试步骤 预期结果 用 powermtdisplay dev=all 检查设备和路径状况 打开 iometer 对 lun 进行写操作 关闭其中一台存储 再次用 powermtdisplay dev=all 检查设备和路径状况powermt 的输出中 hdiskpower#的四个通道上都有 IO 流量,且 IO 总流量比较接近。9.2 数据库高可用测试

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报