文档库 最新最全的文档下载
当前位置:文档库 › EMC PowerPath多路径控制软件的部署和最佳实践

EMC PowerPath多路径控制软件的部署和最佳实践

EMC PowerPath多路径控制软件的部署和最佳实践
EMC PowerPath多路径控制软件的部署和最佳实践

EMC PowerPath多路径控制软件的部署和最佳实践

好消息,EMC中文论坛里新一期的“专家问答”活动已开启。EMC PowerPath一款常用于在各类主机和存储系统间进行多路径控制、管理和优化的软件,实现负载均衡和故障切换。从12月10日(周一)开始为期两周的时间里,我们将和大家一起讨论和分享有关EMC PowerPath 多路径控制软件的部署和最佳实践的话题和心得。以往所有已完成的“专家问答”活动可参考这个汇总贴。

沙发,哈

请问 powerpath 最多只可以做两条冗余的路径吗?

应该是每个逻辑单元(LUN)最多可以支持32个通道(Path),但是随着通道数量的增加,Powerpath需要消耗的系统资源也会随之增加。因此综合考虑冗余和计算性能的话,很少有用户会配置如此多数量的通道。

谢谢偶这边是配置两路的一般运作的时候是负载均衡的吗?还是只是用一路主的另外的备用呢?

Powerpath会自动的做负载均衡。但需要注意的是,负载均衡不等于Round Robin算法,虽然这也是选择之一。Powerpath的负载均衡的考虑因素要复杂很多,不仅有I/O数量,还有I/O大小,队列深度,响应时间,等等,Powerpath会对每个I/O请求选择一条最优的通道,即使和上一个I/O请求是同一个。

powerpath在vmware上需不需要安装,谢谢,貌似vmware自带多路径软件!!!

VMware对存储的管理是通过ESX来实现的。

ESX的VMKernel有自带的故障切换和多路径管理,但仍然可以安装PowerPath/VE以实现ESX 所连接存储的特有属性。

在VMWare (ESX以及ESXi)上的Powerpath软件为 Powerpath / VE,具体的安装方法是不一样的。并且管理工具(rpowermt)和许可证的管理方式也不同。

Powerpath/VE的管理由rpowermt命令控制,这个命令可以安装在一台windows或者Linux 操作系统上,通过TCP/IP网络对Vmware进行管理。

许可证也有几种,不像传统的Powerpath都是单机的。安装配置方式根据许可证的类型(Served, Unserved)也有不同,过程相对要复杂一点。

上述详细情况请参考一下Powerlink或者Supportzone上面的文档。

哦,那安装好powerpath之后,vmware自带的多路径功能是不是要屏蔽掉?

VMWare有一个claimrule的功能,可以配置使用特定的软件来管理某一类阵列的设备。安装Powerpath/VE之后,EMC的阵列就会被Powerpath/VE管理了,没有被PP接管的设备才会被NMP接管。

哦,自动切换的,很方便!!

那么powerpath是要单独收费的嘛?

vmware的pp很贵!

记得好像AX、CX的连个sp应该是active-standby?,针对同一个lun的访问,如果两台链路一个到spa,一个到spb,这种情况下powerpath应该提供的是链路冗余(主备,并不负载分担)的功能?是不是负载分担应该是在多个lun的时候分布于不同sp owner的时候宏观上看到的是负载分担?还是别的理解?

但是实际上,有VMWARE的基本上没什么人再买powerpath吧?

AX、CX的连个sp应该是active-standby

对于主备模式,powerpath负载均衡的作用在于多条连接active SP的路径,对于passive SP 是不发挥作用的。如果只有一条链路连接到active SP,就没有load balance这一说,但仍然有failover的功能。

再在A.Y的基础上补充一点关于各种操作系统自带的MutiPath工具介绍。让大家再全方位的了解一下各个操作系统的多路径控制软件。

基本上每个操作系统都会提供Native的MutiPath软件。主要有以下几种:

Windows Server

Windows Server从2003版本开始,微软开发了MPIO Framework,开始支持第三方存储阵列,使用Device Speicific Modules (DSMs)作为Framework的插件。Powerpath也是基于这个插件解决方案之一。

Windows Server 2008以后开始自带MPIO软件(由MS基于DSM开发),添加了基本的Load Balacing和Failover策略。

我在之前也些过关于Windows MPIO的介绍,有兴趣可以看一下:Windows Native MPIO存储多路径软件详解与应用

Redhat

Device Mapper Multipathing (DM-MPIO)是Redhat默认的多路径控制解决方案。它支持多数厂商的存储阵列,也包括EMC的存储。DM-MPIO是通过multipath.conf.default 文件来进行配置,默认情况下该文件针对不同的存储阵列自动创建,比如VNX会被设置成ALUA Mode。 Round Robin会被设置成Symmetrix VMAX和VNX的默认模式。同时Round Robin 也是Redhat5和6的默认运作模式。

VMware vPshere

ESX和ESXi提供了扩展的多路径模块,叫做Native Multipathing Plugin(NMP)。通常来说,VMware NMP对多数存储阵列进行支持(参考Vmare storage HCL)。NMP关联一组物理到存储阵列的物理链路,然后提供Failover等功能。NMP模块还提供了可选的路径选择插件,SATPs(Storage Array Type Plguins)和PSPs(Path Selection Plugins)。SATPs支持不同存储阵列的路径。PSPs支持根据I/O负载来选择路径管理。

HP-UX

在HP-UX 11i v2或者更早的版本,HP StorageWorks Secure Path提供了Load Balancing 和Failover功能。

在HP-UX 11i V3(11.31)之后,Native Multipathing被包括在操作系统之中。默认的load-balancing策略是Round Robin。

AIX

AIX的的多路径解决方案是path-control module)PCM。支持的规则也是Failover 和Round Robin策略。

Solaris

Solaris的MPxIO是Solaris中原生的多路径控制软件。同样支持两个Load Balancing 策略,Failover和Round Robin。

最后可能大家有疑问,Powerpath和这些多路径控制解决方案相比的优势是什么。主要还是两点:1.针对EMC的存储更好的优化故障切换和负载均衡。2.性能上的优势,就像A.Y说的,同样条件下可以提升30%。

A.Y. 编写:

很多操作系统都自带多路径软件的,比如Linux上有DM-MPIO,AIX上有PCM/MPIO,Solaris 上有MPxIO。这些操作系统也可以使用这些软件来控制对EMC阵列的多路径访问。但是Powerpath与其他厂商的软件相比,和EMC的阵列配合的更好。

按照Powerpath的产品说明,与VMWare的自带NMP相比,Powerpath能带来 ~30%的I/O性能提升。

power path 的一个命令<忘记了>有的时候会显示路径dead 这个怎么解释呢?

powermt display dev=all可以看链路!死的链路应该就是掉线啦!重新扫描一下试试

"powermt display dev=all" 可以显示所有通道的状态,我们会看到有dead path是因为Powerpath无法使用这个通道来发送I/O请求。最常见的原因是因为链路问题,但也可能是因为设备配置的改变(比如LUN Masking的改变),以及其他一些软件原因。

遇到这样的情况,可以使用"powermt restore"命令来尝试进行恢复;或者使用"powermt check"命令。两者的区别是“check”命令如果不能将通道的状态恢复,就会删除dead的通道。

如果上述命令不能解决问题的情况下,就要针对具体问题分析,该给EMC开case啦。

PowerPath发现dead 路径时有以下步骤可用于诊断和修复:

1. 检查新路径,如果显示dead paths,则删除已存在的dead路径:

powermt check

2. 扫描磁盘设备,PowerPath会自动进行配置;

powermt config

3. 使用以下命令查看路径状态,如果所有路径显示为有效并且为激活状态(没有HBA激活问题),则进行下一步:

powermt display dev=all

4. 保存正确的PowerPath更改:

powermt save

补充Alex的,说明一下power check命令和power restore命令:

power check:

对路径进行检查,并在需要的情况下从PowerPath配置中删除标记为dead的路径。

如果路径标记为dead或路径配置信息中的序列号与本地设备序列号不符,则出现提示用户删除路径。

power restore:

此命令测试并恢复指定路径,发出测试I/O并针对测试结果作出反应如下:如果live路径通过测试,则此命令不做任何操作;

如果dead路径通过测试,此命令将其标识为alive状态;PowerPath此时可以使用该路径;此外,同一HBA和/或存储系统端口上的其他路径也将被测试。

如果live路径测试失败,此命令将其标识为dead并打印告警。此外,共享HBA和端口的其他路径也可能标示为dead并被测试。

如果dead路径测试失败,此命令会打印告警。

此外,该命令还会尝试复活dead卷。

谢谢专家。

做例如 power check这个操作的时候是否能在线操作吗?需要停机操作吗?

不需要,因为这个命令只会对dead状态的通道进行操作,这些通道是不会有被用于发送I/O 请求的。

有您这句话偶就大胆的往前走了。嘿嘿,不过也是偶经常在跑的好好的机器上运行 insf -e ,也没有事情

请问 powermt display dev=all 看到有这样的情况

以下是一个片段

Symmetrix ID=xxxxxxxxxx

Logical device ID=0175

state=alive; policy=SymmOpt; priority=0; queued-IOs=0

============================================================================== ---------------- Host --------------- - Stor - -- I/O Path - -- Stats --- ### HW Path I/O Paths Interf. Mode State Q-IOs Errors ==============================================================================

10 0/3/1/0.2.14.0.1.7.6 c10t7d6 FA 9dA active alive 0 0

11 0/7/1/0.1.14.0.1.7.6 c11t7d6 FA 7dA active alive 0 0 Symmetrix ID=xxxxxxxx

Logical device ID=01A9

state=alive; policy=SymmOpt; priority=0; queued-IOs=0

============================================================================== ---------------- Host --------------- - Stor - -- I/O Path - -- Stats --- ### HW Path I/O Paths Interf. Mode State Q-IOs Errors ============================================================================== 11 0/7/1/0.1.14.0.1.11.2 c11t11d2 FA 7dA active alive 0 0

怎么会一个有两个路径一个只有一个呢

这个倒不一定是一个错误。

首先从Symmetrix的角度,Device的Mapping和Masking,或者Masking View(VMax)的配置都可以出现上述的现象,即每个设备的通道数量甚至连接的FA是完全不同的。如果是连接了Clariion或者VNX的存储,出现了这个现象才表明有问题。

当然,如果这个通道数量和期望的不一致,首先要检查的当然是设备的分配情况。如果没有问题,就要确认相应通道的native 设备已经生成(HP-UX上可以用ioscan / insf 这些命令来完成),然后再执行powermt config来将它们配置起来。

谢谢

如果发生了您说的那个情况应该就应该是power path与symmetrix给主机的路径的信息不一致吧,是否有必要一定要做校验调整呢?

通常可以用powermt display paths, powermt display 检查一下通道数量,逻辑设备数量的总结,如果觉得有疑问可以进一步通过powermt display dev=all命令查看细节。出现问题的情况还是少数,大部分情况下如果所有操作都合规范,正常运行的系统不大会出问题。

论坛上一篇文章总结过PowerPath常用命令的使用方法和注意事项,功能包括HBA/路径/端口/磁盘设备/存储系统执行配置、查看、删除、保存、恢复等:PowerPath常用命令总结及应用

太复杂了,还要单独做一台rpowermt管理控制机吗?

为什么要这样设计呢?

大多数中低端存储都是AP模式的架构,即active/standby,起到的是冗余,而不能负载均衡,当时这是针对一个LUN来说。

当然也有例外,HDS的AMS系列就可以做到AA模式的,技术还是比较先进的。

请问 PowerPath Encryption以及PowerPath Migration 这两个功能是做什么用的呢?

Powerpath Migration Enabler 是用于做数据迁移的,这是一个主机软件用于迁移数据的解决方案,要求是主机必须同时连接源和目标存储,并且数据迁移的运算资源是来自服务器 (与基于阵列的数据迁移相比较的主要区别)

Powerpath Encryption 是将数据加密以后存放到存储设备上,读取以后解密再提供给应用程序的功能。

这两个功能的用户应该不是很多吧。

en.......关于power migration:这里的源是不是可以理解为就是主机上的硬盘或者光驱之类的存储介质呢?所谓的migration是否是一种backup呢?还是说可以做OS层面的在线迁移?

关于power encryption:加密后的数据能否被另一台安装了power encryption 的主机访问呢?

收藏之。

其实很简单,专业版一定会强于大众版。

这就是PowerPath一定会优于OS厂商提供的MPIO的原因。

要强有力的说明哦,不然客户怎么愿意买呢

anhong的这个要求很厉害啊,比较困难的说……毕竟Powerpath属于"Infrastructure Software"而不是一个业务应用,大部分客户不会在Powerpath层面做太多的定制,还是越稳定越好,用法也比较简单。

我就分享一点支持Powerpath这个产品过程中总结的经验,希望能有点帮助。

首先介绍一下常用的文档吧,在https://www.wendangku.net/doc/8d13695808.html,网站上有各种版本的Powerpath Installation and Administration Guide,里面有比较详细的安装/升级以及卸载Powerpath 的步骤及注意事项。这些文档不是那么容易看,但是如果严格照着做的话,确实可以避免大部分的问题。

另外在连接EMC的Clariion / VNX阵列的时候,一定要查一下EMC的KB Primus emc99467(通过https://www.wendangku.net/doc/8d13695808.html,网站搜索即可)。这个里面包括了针对各种操作系统的Initiator Type, Failover Mode, Arraycommpath以及Unit Serial Number的配置。这个配置必须严格遵守,否则在识别设备或者运行过程中通道切换时都会有影响

如果连接的是Symmetrix设备,那么就要到https://www.wendangku.net/doc/8d13695808.html,上去确认一下Director Bit。这些配置同样会对设备识别以及通道切换造成影响。

另外在https://www.wendangku.net/doc/8d13695808.html,的文档中还包括了Powerpath CLI and System Messages Reference Guide,对于其他的一些管理任务,比如伪设备名的改变,批量导入导出,通道优先级变化,以及一些故障处理技巧方面都比较有用。

后面我会分享一些Unix操作系统上最常见的现象以及解决方法。

powerpath进程后台应该有定时检测IO链路是否alive的restore操作吧?

系统繁忙时,insf -e的操作最好不要做。

保不准系统就hang了,俺这里的HPUX发生过哦

这两个功能国内应该基本没啥企业在用。

数据迁移有大把的方法,而Powerpath Migration Enabler很明显应该只能支持EMC存储之间,估摸着限制还不少。

不过这个功能用PP做还真是手到擒来,管理所有链路的IO,做同步岂不是容易得很。

说的太棒了,前段时间就因为没有注意到failover mode而吃了大亏,折腾了一个晚上。期待最后那句的内容分享。

关于PPVE for Windows Hyper-V不是很确定,超出我的范围了...

但是查了一下"EMC PowerPath and PowerPath/VE for Windows 5.5 and Minor Releases Installation and Administration Guide",里面只提到PP/VE for Hyper-V需要一个独立的License。而没有更多的说明,所有的产品文档和软件都是放在一起的,看来只是一个许可证的区别而已。

先说说AIX吧。

想了一下,AIX上Powerpath最常见的部署问题恐怕还是在连接Clariion/VNX存储时的failover mode配置。在使用Powerpath的情况下,failover mode这个值只能配置为3或者4。3是PNR(Passive Not Ready),4是ALUA。

大致解释一下这两个的区别:

PNR / Passive Not Ready的模式下,对于一个LUN的访问只能通过它当前所属的控制器(SP)来进行,如果通过另外一个(Passive)控制器进行读写的话,就会得到一个"Logical Unit Not Ready"的错误,errpt里面会出现一个DISK OPERATION ERROR。对于其他的操作系统来说,这样的模式是要求failover mode配置为1的。

ALUA是非对称的访问,对于主机来说两个控制器都可以接受读写请求的,但后端处理上会不一致。这样的情况下,无论从那个控制器都不应该会看到"Logical Unit Not Ready"的错误。

5.3及以前版本的时候,如果这个值设置为1(大部分其他操作系统的要求),Powerpath 可以识别设备,但是通道切换到时候会出现问题,过程不平稳,并且errpt里面会报一堆的错误。

从5.5(或者是某个小版本)开始,如果这个值配的不正确,那么powermt display dev=all 就显示不出任何的设备了。这可能是因为Powerpath软件对这个值的检查条件增强了。我们遇到过多次客户升级这个软件之后说设备都不见了,然后发现其实是一个错误配置用了很久很久...

除此之外还有一些客户在初次安装EMC ODM的时候会比较困惑,那么多的文件集选哪些个安装呢?大致总结一下:

版本: AIX 7.1 需要使用 ODM 6.0.0.0,AIX 5及AIX 6需要安装ODM 5.3.0.X

文件集:对应不同的阵列以及不同的连接类型

Powerpath -> EMC..rte & EMC...rte

MPIO -> EMC..rte & EMC..MPIO..rte

(这里的文件集名字主要是列出关键字,准确的名字在smitty里面可以看到选择。)

例如,将AIX用iSCSI连接到Clarion或者VNX阵列上,需要安装的文件集是:

Powerpath -> EMC.CLARiiON.rte

EMC.CLARiiON.iscsi.rte

MPIO -> EMC.CLARiiON.rte

EMC.CLARiiON.MPIO.iscsi.rte

想将ODM里面全部的文件集都装上是不能成功的,因为MPIO的文件集和PP的是冲突的,只能装一个。

连接Symmetrix阵列的安装过程出现问题的好像不是很常见。

我也是查看了相关文档发觉pp for WIN和PP/VE for hyper-v在安装上没差别,差别就是许可证。。

谢谢!

PowerPath使用周期性路径测试以确认路径是否能正常工作。路径测试是PowerPath通过发送一系列I/O以确认路径的可用性。如果测试失败,PowerPath关闭该路径并停止向其发送I/O。

PowerPath继续周期性地检测故障路径,以确认其是否恢复。如果路径通过测试,PowerPath 将恢复对该路径的使用并重新发送I/O。在轻量负载或小型配置的情况下,路径在修复后会在一小时内自动恢复使用。对于大型配置,修复后恢复所有路径使用可能花费数小时,因为

周期性自动恢复任务被更高优先级任务抢占。路径的故障切换以及恢复流程对于应用程序来说是透明的。当路径恢复后,存储,主机,应用程序将继续保持可用性。

测试正常工作路径将花费几毫秒,测试故障路径可能花费数秒,具体取决于故障类型。

谢谢A.Y的分享,真的对我工作很有帮助哦。

Solaris

在Solaris上安装Powerpath,必须将系统自带的多路径管理软件MPxIO完全禁用。在Sparc 平台上的 /kernel/drv/fp.conf 里面这个选项已经被默认禁用了:

mpxio-disable=yes

从Powerpath for Solaris 5.5开始,要求在/kernel/drv/iscsi.conf 中也要将这个选项禁用,否则Powerpath无法识别Clariion或者VNX的设备。这个配置文件一般是针对iscsi 连接的,但是Powerpath在这里的要求不论是光线还是iscsi连接都必须满足。

(在Solaris 11中这两个文件的配置方法稍有不同)

另外一个很常见的问题是,如果使用了non-leadville驱动(非Solaris自带的SCSI以及HBA驱动),那么EMC要求对于SCSI设备做Persistent Binding.

Persistent Binding简单的说,就是对一个HBA能发现的存储端口指定一个Target ID,作为磁盘设备cXtYdZ中的t字母后面的编号Y。同时需要在sd.conf 中指定某一个Target 编号上,系统可以配置的LUN 地址,也就是d字母后面的编号Z,同时也是分配设备时指定的Host ID (Clariion:Storage Group中的HLU,Symmetrix:map设备时指定的LUN)

Persistent Binding不做的话,操作系统有可能识别不到设备,或者每次重启之后设备的Target ID会变化,从而导致Powerpath无法配置设备。

Linux

在Linux上安装Powerpath还是比较简单的,需要注意的是

- 自带的DM-MPIO软件要禁用,比如在/etc/multipath.conf中blacklist中加入 "*"

- 有些HBA驱动默认支持的最大LUN地址有限制,可能需要增加一些模块参数在

/etc/modprobe.conf 中,或者分配设备的时候选择小一点的地址

除此之外,有一些配置,大部分客户不会去做,并且确实在大部分环境中也没见造成问题。如果遇到了Boot-from-SAN,LVM命令报警等问题,文件系统挂载等,可以从下面几点去检查一下:

- /etc/fstab

有些客户会选择在启动操作系统的时候自动挂载一些文件系统,并且要求自检。如果

/etc/fstab中包括一些/dev/emcpowerX设备,那么有可能会遇到无法启动,自动进入单用户模式的情况。

这是因为在文件系统自检的时候,Powerpath的模块还没有加载,emcpowerX设备还没有生成,强制fsck通不过。在/etc/fstab中涉及到emcpowerX设备的记录中,添加上_netdev 选项可以解决这个问题。

- /etc/lvm/lvm.conf

这个配置中有一个 filter 选项,用于控制LVM接受哪些设备来作为物理卷。默认的配置是所有设备都可以被接受,那么同一个LUN就会有N个sd设备加上1个emcpower设备,会造成LVM命令抱怨发现重复的PVID。如果不想看到这些错误,或者是Boot-from-SAN,并且根分区是建立在逻辑卷上的,这里就必须改变默认选项。具体的参数在Powerpath for Linux Installation and Administration Guide,以及EMC Linux Host Connectivity Guide中有提到,根据操作系统发布版本/内核版本,以及其他的具体要求会有不同。

感谢Alex,认真读完这个帖子,就登堂入室,不再是PowerPath菜鸟了

本期“EMC PowerPath多路径控制软件的部署和最佳实践”的专家问答活动已圆满结束。感谢积极参与的朋友们,感谢各位专家的精彩分享和解答!

本帖就此锁定。大家有新的问题的话,欢迎开新贴讨论

多路径的配置与管理V2.0

多路径配置与管理

目录 1. 多路径概述 (1) 1.1 什么是多路径 (1) 1.2 业界的MPIO (1) 2. Windows Server 2008/2012 MPIO配置与管理 (1) 2.1 MPIO安装 (1) 3.2 MPIO配置 (5) 3.3 MPIO切换策略介绍 (13) 4. RedHat Linux MPIO配置与管理 (15) 4.1 多路径软件的安装 (15) 4.2 Multipath.conf配置文件解析 (16) 4.3 配置multipath.conf (19) 4.3.1 快速配置 (19) 4.3.2 高级配置 (19) 4.4 多路径管理 (24) 4.5 多路径磁盘的使用 (25) 5 各产品multipath.conf参数配置 (26) 5.1 INSPUR AS500G/E、AS520G/E (26) 5.1.1 Windows客户端 (26) 5.1.2 Linux客户端 (27) 6 Multipath Issues Troubleshooting (27) 6.1在群集中保持多路径设备名称一致 (27)

1. 多路径概述 1.1 什么是多路径 普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。 多路径管理MPIO(Multi-Path),对支持MPIO的存储设备,MPIO自动发现、配置和管理多个存储路径,提供IO高可靠性和负载均衡。MPIO方案的实现有三个部分组成,分别为存储系统部分、存储软件部分和操作系统部分。 多路径的主要功能就是和存储设备一起配合实现如下功能: 1.故障的切换和恢复 2.IO流量的负载均衡 3.磁盘的虚拟化 在RedHat和Suse的2.6内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。 1.2 业界的MPIO 由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。,业界比较常见的MPIO功能软件有EMC 的PowerPath,IBM的SDD,日立的Hitachi Dynamic Link Manager和广泛使用的linux开源软件device-mapper。 2. Windows Server 2008/2012 MPIO配置与管理 2.1 MPIO安装 Windows Server 2008系统包含MPIO软件,不需要使用其它的MPIO软件。具体安装步

RHEL_ENTERPRISE_6.4_多路径软件multi-path配置操作手册

RHEL ENTERPRISE 6.4 多路径软件multi-path 配置操作手册

目录 一、什么是多路径 (1) 1.1 多路径的主要功能 (1) 1.2 UUID的作用及意义 (2) 二、Linux下multipath介绍 (2) 2.1 查看multipath是否安装 (2) 2.2 Linux下multipath需要以下工具包介绍 (2) 三、multipath在Redhat中的基本配置过程 (3) 3.1 安装和加载多路径软件包 (3) 3.2 设置开机启动 (4) 3.3 生成multipath配置文件 (4) 四、multipath 高级配置 (4) 4.1 获取存储设备的UUID/wwid和路径 (5) 4.2 配置/etc/multipath.conf 文件例子 (5) 4.3 关于:scsi_id (8) 五、multipath 基本命令 (8) 六、multipath.conf配置文件说明 (9) 七、对multipath磁盘的基本操作 (10) 八、使用multipath的一个例子 (12) 九、PV/VG/LV常用操作命令 (12) 十、使用udev配置固定iSCSI磁盘设备名称 (16)

一、什么是多路径 普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN 环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。 也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。 另外在linux中,同样的设备在重新插拔、系统重启等情况下,自动分配的设备名称并非总是一致的,它们依赖于启动时内核加载模块的顺序,就有可能导致设备名分配不一致。 1.1多路径的主要功能 多路径的主要功能就是和存储设备一起配合实现如下功能: 1.故障的切换和恢复 2.IO流量的负载均衡 3.磁盘的虚拟化 由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。 比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在,RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。

linux下多路径的介绍和安装配置

一、什么是多路径 普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。 多路径的主要功能就是和存储设备一起配合实现如下功能: 1.故障的切换和恢复 2.IO流量的负载均衡 3.磁盘的虚拟化 由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在, RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。 二、Linux下multipath介绍,需要以下工具包: 在CentOS 5中,最小安装系统时multipath已经被安装,查看multipath是否安装如下: 1、device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath 等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库。创建的多路径设备会在/dev /mapper中)。

CentOS系统光纤连接存储的多路径配置及使用方法

C e n t O S系统光纤连接存储的多路径配置及使用方法 1、安装多路径软件包: 2、检查安装包的安装情况 #rpm–aq|grepmultipath 3、安装上述多路径软件包 #? #?rpm?-ivh?devic 安装过程中可能会提示需要安装其他的关联软件包: 主要与多路径软件相关联的软件包如下: libaio libaio-devel- 如服务器可以连接公网的话,可直接用yum来安装,yum会自动将相关联的软件安装上. #yuminstally device-mapper* 检查安装情况 #rpm–aq|grepmultipath 安装完成后需重启机器. 4、配置多路径软件multipath 4.1、将多路径软件添加至内核模块中 #modprobedm-multipath #modprobedm-round-robin 检查内核添加情况 #lsmod|grepmultipath 4.2、将多路径软件multipath设置为开机自启动 #chkconfig--level2345multipathdon 检查 #chkconfig--list|grepmultipathd 启动multipath服务 #servicemultipathdrestart 4.3、配置multipath软件,编辑/etc/multipath.conf 注意:默认情况下,/etc/multipath.conf是不存在的,需要做如下准备工作: 4.3.1、cd至/sbin下,用如下命令生成multipath.conf文件: #mpathconf--enable--find_multipathsy--with_moduley--with_chkconfigy 4.3.2、查看并获取存储分配给服务器的逻辑盘lun的wwid信息 #more/etc/multipath/wwids 编辑/etc/multipath.conf,编辑multipath的配置文件时,可将自动生成的multipath.conf保留,重新vim 个新的multipath文件. #vim/etc/multipath.conf [root@ahltimt3~]#vim/etc/multipath.conf defaults{ find_multipathsyes user_friendly_namesno }

HDS HDLM多路径的管理软件aix

1.多路径的管理软件 Dynamic Link Manager是HDS配合各个主机厂家在主机高可用系统运行结构中提供的独特软件,安装在主机上,需要存储系统微码支持。它使用最优的调度算法使连接主机与磁盘阵列的各I/O通道间的I/O自动达到均衡,这样可提高系统的I/O吞吐量,提高整个系统的性能。Dynamic Link Manager另一个功能是I/O通道故障自动隔离。当主机与磁盘系统之间的I/O通道在链路环节上出现故障(如HBA卡、交换机、光缆、接口卡),Dynamic Link Manager能实现自动故障隔离,即切换至另一通路,应用I/O可以在正常的通道上继续进行,确保生产业务的连续性。当故障通道修复或替换完毕后,可在线激活,重新开始在原通路上工作。 HDLM可以在IBM AIX、 SUN Solaris、Microsoft Windows NT/2000、Linux及HP-UX等多种平台上提高系统的可靠性。并支持其他的高可靠性(HA)软件,如HACMP、SUN CLUSTER、VCS、MCS等。 在没有多路径功能支持下,主机只能通过某一个路径访问一个磁盘(LUN),系统存在单点故障的隐患。当该路径上的任何一个环节出现问题时,如主机HBA卡损坏、光纤或光纤交换机损坏等情况下,会造成主机无法访问磁盘的现象,而导致用户系统的中断。在多路径软件(如HDLM)的支持下,使用多条路径连接主机和存储系统,主机可以通过多个路径访问同一个磁盘,避免出现单点故障,提高整个系统的可靠性。 1.1.HDLM的主要功能 负载均衡(Load balancing) 当多条路径连接主机和存储系统时,HDLM把负载分配到各个路径,避免单个路径负载繁重而影响处理速度。

关于存储控制器的多路径机制(AA-ALUA-AP)

关于存储控制器的多路径机制 业界某些存储控制器支持ALUA多路径机制(或者说负载均衡技术),什么是ALUA多路径机制? ALUA即“Asymmetric Logical Unit Access(异步逻辑单元访问)”的缩写,它是前端控制器多路径机制之一。前端控制器多路径机制一定程度上决定存储的读写性能和可靠性,现有的前端控制器多路径机制可分为三大类:A/A:Symmetric Active/Acivie,对于特定的LUN来说,在它的路劲中,两个存储控制器的目标端口均处于主动/优化(active/optimized)状态。两个控制器之间实现高速互联的通讯,一个IO发到控制器端,两个控制器可同时参与处理;当一个控制器繁忙,系统不需要主机端的负载均衡软件参与就可以自动实现负载均衡。 ALUA:Asymmetric Active/Active,对于特定的LUN来说,在它的路径中,一个控制器的目标端口处于主动/优化(active/optimized)状态,另一个控制器的目标端口处于主动/非优化(active/unoptimized)状态。在某一个时刻,某个LUN只是属于某一个控制器,要想实现两边的负载均衡,就是将任务A扔给控制器A,将任务B扔给控制器B,对于同一个任务来说,任何时候只有一个控制器在控制。 A/P:Active/Passive,对于特定的LUN来说,在它的路径中,一个控制器的目标端口处于主动/优化(active/optimized)状态,另一个控制器的目标端口处于备用(standby)状态。其负载均衡及任务处理方式与ALUA类似。 Active/optimized、Active/unoptimized、Standby和Unavailable是目标端口的四种访问状态,在相应访问状态下,设备服务器(即阵列控制器)只能回应相应的命令标准(命令标准由ISO/IEC 14776-453文件Part 453:SPC-3制定),这就决定了在某一时刻是否可以通过某个目标端口访问逻辑单元。 目标端口的状态可以转换,目标端口从一个状态转换到另一个状态的过程称为过渡。 Active/optimized:目标端口有能力立即访问逻辑单元。 Active/unoptimized:只能回应相应的命令标准,可以过渡到Active/optimized。

LINUX下多路径(详细)

LINUX下多路径(multi-path)介绍及使用 2013-05-16 11:15:34| 分类:openfiler系统+fr|举报|字号订阅 一、什么是多路径 普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。多路径的主要功能就是和存储设备一起配合实现如下功能: 1.故障的切换和恢复 2.IO流量的负载均衡 3.磁盘的虚拟化 由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在, RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。 二、Linux下multipath介绍,需要以下工具包: 在CentOS 5中,最小安装系统时multipath已经被安装,查看multipath是否安装如下:

Oracle RAC存储多路径的设置案例

Oracle RAC存储多路径的设置案例 以redhat6、centos6、oracle6及Asianux4为例 1.安装多路径的客户端 如果是FC SAN: yum install device-mapper device-mapper-multipath -y 如果是IP SAN: yum install iscsi-initiator-utils device-mapper device-mapper-multipath -y 2.设置一个多路径的配置文件: /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf的文件拷贝到/etc目录下面: 3.启动multipath服务 /etc/init.d/multipathd restart 4.将所有/etc/multipath/bindings 设置为一致,两边的内容一样 [root@rac81]# cat /etc/multipath/bindings # Multipath bindings, Version : 1.0 # NOTE: this file is automatically maintained by the multipath program. # You should not need to edit this file in normal circumstances. # # Format: # aliaswwid # mpatha 3600605b005c1b03019ae96a616049c04 mpathb 3600143801259f9320000500000360000 mpathc 3600143801259f9320000500000420000 mpathd 3600143801259f9320000500000460000 mpathe 3600143801259f93200005000004a0000 mpathf 3600143801259f93200005000003e0000 mpathg 3600143801259f93200005000003a0000 mpathh 3600143801259f93200005000004e0000 mpathi 3600143801259f9320000500000520000 mpathj 3600143801259f9320000500000560000 mpathk 3600143801259f93200005000005a0000 mpathl 3600143801259f93200005000005e0000 mpathm 3600143801259f93200005000007a0000 4.配置multipath.conf文件的磁盘项目 devices { device { vendor "HP" product "HSV2[01]0|HSV300|HSV4[05]0"

Linux下多路径multipath配置文档和相关概念

一、什么是multipath 普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,由于主机和存储通过了光纤交换机连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。 既然,每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。多路径的主要功能就是和存储设备一起配合实现如下功能: 1. 故障的切换和恢复 2. IO流量的负载均衡 3. 磁盘的虚拟化 二、为什么使用multipath 由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。 其中,EMC提供的就是PowerPath,HDS提供的就是HDLM,更多的存储厂商提供的软件,可参考这里。 当然,使用系统自带的免费多路径软件包,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。 ※请与IBM的RDAC、Qlogic的failover驱动区分开,它们都仅提供了Failover的功能,不支持Load Balance负载均衡方式。但multipath根据选择的策略不同,可支持多种方式,如:Failover、Multipath等。 Failover的功能解释:通俗地说,即当A无法为客户服务时,系统能够自动地切换,使B能够及时地顶上继续为客户提供服务,且客户感觉不到这个为他提供服务的对象已经更换。这里的

AIX MPIO、RDAC、SDDPCM多路径软件操作

一:查看IBM存储盘的路径 1、查看MPIO的存储盘的路径 # lspath (适用于所有存储的MPIO路径查询) # mpio_get_config -Av (适用于DS3K/DS4K的MPIO路径查询) 2、查看RDAC存储盘的路径 # fget_config -Av (适用于DS3K/DS4K的RDAC路径查询) 3、查看SDDPCM存储盘的路径 # pcmpath query device (适用于DS6K/DS8K和v7000的SDDPCM路径查询) 4、查看当前操作系统自带的支持IBM存储的多路径软件 # manage_disk_drivers 5、将DS4700默认的多路径软件更改成RDAC # manage_disk_drivers -d DS4700 -o AIX_fcparray 二:MPIO路径的常用操作 1、查看单个盘的路径 # lspath -l hdisk3 # lspath -F "status name path_id parent connection" | grep -w hdisk3 2、MPIO路径控制 将fcs0卡下的hdisk2的路径禁用 # chpath -l hdisk2 -p fscsi0 -s disable 将fcs0卡下的hdisk2的路径启用 # chpath -l hdisk2 -p fscsi0 -s enable 3、其它参数 # chdev -l hdisk3 -a queue_depth=1 //如果ODM是1.0.1.0以上可以是任何数字 # chdev -l hdisk3 -a hcheck_interval=60 //链路失效检查时间间隔;如果等0,则不会自检 # chdev -l hdisk3 hcheck_mode=nonacive This parameter specifies which I/O paths should be monitored by the path health checking functionality. nonactive: This mode will check all failed I/O paths and all standby paths of used/opened devices. failed: This mode with check failed I/O paths only. enabled: This mode will check all enabled I/O paths which are opened. Note: Non-opened devices are not monitored. Also, this attribute is not being used at this time since path health checking is not enabled. This attribute can be ignored 4、修改链路优先级 lspath -AHE -l hdisk2 -p vscsi3 //查看链路优先级 # chpath -l hdisk3 -p fscsi0 -w 链路1 -a priority=1 # chpath -l hdisk3 -p fscsi0 -w 链路2 -a priority=2 5、处理故障 1)如果发现有很多路径是missing的,可以用cfgmgr重新扫描,如果还有missing的,可以用步骤2和2来激活路径; 2)如果要更换光纤线,可以该卡上的有的路径禁用,换完线后再启用,避免直接拨线产生的风险。

redhat7多路径配置

redhat7.3多路径配置 多路径配置主要步骤如下: 1. 查看是否安装多路径软件包 rpm -qa|grep device-mapper [rootfjlocalhost 勒 rpm -qa |grep devica-fliApper device-aapper -1.62.135 * i * el 7.x86_64 drvir?-mpp?'r iftultipath libs 3 .0-99.^17 . vS6_64 device-upper pe nslstent - data -0.6,3-1. tfl7. xfi5_64 device-sapper -multipath ■ & + 4 占-99 ? el.7.xe6_64 devlce^HApper -llbS-1,82335 -1 -fl!7.xS6_64 device-Mappc r event ■ 1.02 J 35 1.e!7< device-?pper -event -llbs-1. G2.135 * 1 ?e!7. x86_6^ 2. 如果系统没有安装多路径软件包,使用 yum 安装 yum in stall -y device-mapper device-mapper-multipath 3. 生成多路径配置文件 mpathconf --enable 说明:生成配置文件是/etc/multipath.conf 4. 启动多路径服务 service multipathd start 或 systemctl start multipathd.service 5. 查看多路径服务状态 service multipathd status 或 systemctl status multipathd.service [rcotflocAlhoftt ??rvlce nultipathd it At LA Redirecting to ,rf bin/systBKtl status Multipathd ■肓Qmix 軒 multIpathd _a? rvice - DE¥ice-*sp 匚包IT M LJ ITipath De J lcLont rslIer Loaded: loaded (/ussysiam/iiLiltlfnathd h M rvleaj ; anabiladl; rtcidor prM?t: 4nabl4d] Active: ,「小 (r M .m: tine* T M 2GL7-36-29 U:S0:2L CST; 42min *g& P FQCKE : En :!QcStart=/£[34-n/nLjlt CEadQ=4x.itad r st at Lr&^Oz SUCCESS) Proems : 1929 E■ K St4rtPr (-s/5bLn/mul11 path -A 1:“*之时"6 StatU&=e/Sl>CCESSI Protfrsas 1813 E?ee St A rrPr# -; sbLn/?adp robe dmimultipaTh ?: £*d?-*xlT*d P ar EXCESS) Miin PIO : 1026 (wltlp?thd> CGroup: /systeir ?slics/njl.11 pathu r senlc@ IBffi /stjin/nijltlpathd 6. 创建多路径开机自启动服务 systemctl enable multipathd.service 7. 查看HBA 的WWN A LHJ 29 "l&calh&it .localdMain Aug 29 ] 3:5G :22 1 alh?t.I ac aldonain 2? <9 13:5d:22 1 ocal host a I al domain Aug 29 13:58*22 localrMMt .lacaldMain Auq 29 3 3:50:72 "loc?i"lh?t .locaTdo?.L] 耶1 刊IIS — I) queu&L a , I]

服务器多路径挂载FC存储

服务器多路径挂载FC存储 一、物理连接 1、打开服务器,将HBA卡插入插槽,并将光线连接到光线交换机。注意光线如果插反会无法 正常通信,也不会亮。 二、存储设置 2、进入存储管理界面,进行分配存储空间与映射 三、服务器设置 rpm常用命令参数说明: rpm -e xxxxx --nodeps ##### RPM强制卸载 rpm -ivh xxxxxx --replacepkgs ##### RPM将忽略软件包已被安装强行安装 rpm -ivh xxxxxx --replacefiles ##### RPM将忽略文件冲突强行安装 [root@DCXZM-SR43-NF5270M3 home]# rpm -e kpartx-0.4.9-87.el6.x86_64 –nodeps [root@DCXZM-SR43-NF5270M3 home]# rpm -ivh kpartx-0.4.9-93.el6.x86_64.rpm Preparing... ########################################### [100%] 1:kpartx ########################################### [100%] [root@DCXZM-SR43-NF5270M3 home]# rpm -ivh device-mapper-multipath-libs-0.4.9-93. el6.x86_64.rpm Preparing... ########################################### [100%] 1:device-mapper-multipath########################################### [100%] [root@DCXZM-SR43-NF5270M3 home]# rpm -ivh device-mapper-multipath-0.4.9-93.el6.x 86_64.rpm Preparing... ########################################### [100%] 1:device-mapper-multipath########################################### [100%] [root@DCXZM-SR43-NF5270M3 home]# service multipathd status multipathd is stopped [root@DCXZM-SR43-NF5270M3 home]# service multipathd start Starting multipathd daemon: [ OK ] [root@DCXZM-SR43-NF5270M3 home]# chkconfig multipathd on

常见的多路径管理软件

常见的多路径管理软件 Multipath I/O (多路径) 在计算机存储技术里,多路径提供了容错和性能提高,在计算机系统里CPU有多条物理路径通道,块存储设备通过总线,控制器,交换设备以及桥接设备来连接。简单举例同一台计算机里1块SCSI磁盘连接2个SCSI控制器或者磁盘连接到两个FC端口。如果其中1个控制器,端口或交换设备故障,那操作系统就会自动切换I/O路径到冗余的控制器为应用程序使用,但这样可能会增加延迟. 一些多路径软件可以利用冗余的路径提高性能,例如: Dynamic load balancing 动态负载均衡 Traffic shaping 流量控制 Automatic path management 自动路径管理 Dynamic reconfiguration 动态设置 Multipath I/O software implementations 多路径软件工具 一些操作系统自带支持多路径功能,如下 SGI IRIX - using the LV, XLV and later XVM volume managers (1990s and onwards) AIX - MPIO Driver, AIX 5L 5.2 (October 2002) and later HP-UX 11.31 (2007) Linux - Device-Mapper Multipath . Linux kernel 2.6.13 (August 2005) OpenVMS V7.2 (1999) and later Solaris Multiplexed I/O (MPxIO), Solaris 8 (February 2000) and later Windows MPIO Driver, Windows Server 2003 and Windows Server 2008 (April 2003) FreeBSD - GEOM_FOX module Mac OS X Leopard and Mac OS X Leopard Server 10.5.2 Multipath software products: (软件产品) AntemetA. Multipathing Software solution for AIX for HP EVA Disk Arrays NEC PathManager EMC PowerPath FalconStor IPStor DynaPath Fujitsu Siemens MultiPath for Linux and Windows OS Fujitsu ETERNUS Multipath Driver (ETERNUSmpd) for Solaris, Windows, Linux and AIX. Hitachi HiCommand Dynamic Link Manager (HDLM) HP StorageWorks Secure Path NCR UNIX MP-RAS EMPATH for EMC Disk Arrays NCR UNIX MP-RAS RDAC for Engenio Disk Arrays ONStor SDM multipath IBM System Storage Multipath Subsystem Device Driver (SDD), formerly Data Path Optimizer Accusys PathGuard Infortrend EonPath Sun Multipath failover driver for Windows and AIX Sun StorEdge Traffic Manager Software, included in Sun Java StorEdge

redhat5.5多路径配置

就是从存储--光纤交换机--Server,有一个图可以简单的解释这种情况: 首先在Redhat网站找到一个关于多路径的软件,和相关技术说明,如下链接: https://www.wendangku.net/doc/8d13695808.html,/docs/manuals/csgfs/browse/4.6/DM_Multipath/index.html 事实上,在IBMDS4800--X3650的环境中,这个软件无法正常收敛多路径。 经过多次尝试,求教IBM人员,方知需安装一个IBM的软件:RDAC。 终于在今天早上得以解决,简单写了个步骤,积累一下: Redhat下多路径解决--IBM RDAC 1.到IBM网站下载RDAC软件。软件版本需考虑几个因素: A.存储机器的型号。此处为DS4800,可选在DS4000系列。 B.Redhat版本kernel。此处为Linux2.6.18-8.el5xen #1 SMP Fri Jan 26 14:29:35 EST 2007x86_64 x86_64 x86_64 GNU/Linux。需具体到2.6.18。在软件下载界面的相关txt文档查找kernel版本。 参考链接: https://https://www.wendangku.net/doc/8d13695808.html,/systems/support/supportsite.wss/selectproduct?taskind=2&brandind=500 0028&familyind=5329626&typeind=0&modelind=0&osind=0&psid=sr&continue.x=1&matrix=Y#Storage%20 Manager 2.Down下来之后版本为rdac-LINUX-09.02.C5.13-source.tar.gz 上传rdac-LINUX-09.02.C5.13-source.tar.gz到机器上,然后tar zxvf rdac-LINUX-09.02.C5.13-source.tar.gz。目录下会产生linuxrdac-09.02.C5.13文件夹。

LINUX下多路径(详细)

LINUX下多路径(multi-path)介绍及使用2013-05-16 11:15:34| 分类:openfiler系统+fr|举报|字号订阅 一、什么是多路径 普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。 多路径的主要功能就是和存储设备一起配合实现如下功能: 1.故障的切换和恢复 2.IO流量的负载均衡 3.磁盘的虚拟化 由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在,RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。 二、Linux下multipath介绍,需要以下工具包: 在CentOS 5中,最小安装系统时multipath已经被安装,查看multipath是否安装如下: 1、device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和multipath.conf等配置文件。这些工具通过device mapper的

Windows 2008R2 Native MPIO 存储多路径软件详解与应用

Windows Native MPIO存储多路径软件详解与应用 介绍 在Windows Server 2008和Windows Server 2008 R2中开始支持Native Multipathing(MPIO)软件作为操作系统的一个组件存在。EMC旗下的存储阵列都支持MPIO。本文将介绍MPIO和它饿安装与配置,以及如何使用Windows Server Native MPIO连接存储的方法和注意事项。 更多信息 安装与配置Windows Native MPIO: Native MPIO在Windows Server 2008和Windows Server 2008 R2内是一个可选安装项目,用户需要手动启动该功能才能开始使用Native MPIO软件。具体的方式是: 1. 打开Server Manager Management Console 2. 选择Features > Features Summary > Add Features , 打开Add Features Wizard 3. 点击Next选择“MultiPath I/O“、安装 4. 重启Windows 使用Native MPIO连接EMC VPLEX、Symmetrix、DMX、VNX和CLARiiON存储系统的时候需要进行适当配置,用户可以通过两个方法完成特定存储系统的连接配置。 方法1:手动输入Vender和Device ID(建议优先使用这种方法,如果所有的存储阵列没有被初始化连接,可以避免连续重启) ?使用MPIO Properties控制面板程序中的MPIO-ed Devices标签 ?选择Add然后输入vender和product ID(vender ID为8位字符,不满8位的用空格补全,product ID为16位,不满16位的用空格补全) ?比如在MPIO中claim VNX系列和CLARiiON的Raid 1的LUN,输入字符为

相关文档
相关文档 最新文档