文档库 最新最全的文档下载
当前位置:文档库 › suse11sp1安装oracle11gR2_双机RAC

suse11sp1安装oracle11gR2_双机RAC

suse11sp1安装oracle11gR2_双机RAC
suse11sp1安装oracle11gR2_双机RAC

基于Suse11sp1的oracle11gR2的RAC安装

曙光信息产业股份有限公司

成都云计算中心

马庆怀

1.11gR2与之前版本的区别和安装规划

1.1oracle11gR2与之前版本的区别

Oracle11gR2相对之前的版本主要有以下五个改进之处。

1 随处可见的集群

在以前的版本中,Oracle Clusterware必须要独立地安装在它自己的ORACLE HOME中,并且也只

能在RAC环境下使用,这一切在Oracle 11g R2得到彻底颠覆,因为在这个版本中支持安装Oracle网格基础架构,而且只需要一个独立的ORACLE HOME,它包括了Oracle Clusterware和Oracle自动存储管理(ASM)。

单实例RAC(Oracle重启):听起来似乎自相矛盾,但Oracle 11g R2扩展了Oracle Clusterware的功能,为任何单实例提供了高可用特性,本质上是将数据库变成了单实例RAC数据库。Oracle 11g R2中的Oracle重启特性帮助Oracle网格基础架构的高可用服务控制服务器重启时哪一个监听器,ASM实例和数据库应该启动,它完全取代了过去DBA们经常用到的DBSTART脚本。同样,当单个数据库实例崩溃或

其它异常终止时,Oracle重启功能会自动监测失效的实例,并自动重启它,就好像是在一个真实的RAC

环境中一样。

SRVCTL升级:如果你管理过旧版本的RAC环境,你可能已经熟悉了RAC环境中的维护工具SRVCTL,在11g R2中,该工具被扩展了,现在可以管理单实例RAC,以及监听器和ASM实例。

集群时间同步服务:Oracle 11g R2现在需要在所有RAC节点上配置时间同步,如果你曾经经历过某个节点被驱逐出RAC集群配置,你一定知道其难度有多大,特别是两个服务器的时间不同步和日志文件的时间戳不同步时,Oracle之前的版本借助系统提供的网络时间协议(NTP)同步所有节点时间,但这需要连

接到互联网上的标准时间服务器,作为NTP的替代者,Oracle 11g R2提供了一个新的集群时间同步服务,确保集群中的所有节点的时间都保持一致。

网格即插即用:在以前的版本中,配置RAC最复杂的部分是确定和设置所有节点都需要用到的公共ip 地址,私有ip地址和虚拟ip地址。为了简化RAC的安装,Oracle 11g R2提供了一个全新的网格名称服务(GNS),它和域名服务器协作,处理每个网格组件的ip地址分配,当集群环境跨越多个数据库时这个新特性极其有用。

干净地卸载RAC组件:如果你曾经尝试过删除多个节点上的所有RAC痕迹,那一定会钟情于这项新特性,在Oracle 11g R2中,所有安装和配置助手,特别是Oracle通用安装程序(OUI),数据库配置助手(DBCA)和网络配置助手(NETCA),都得到了增强,当需要卸载RAC组件时,可以保证卸得干干净净。

2 ASM加入了集群

ASM和Oracle 11g R2 Clusterware安装在同一个Oracle Home下,因此消除了之前推荐的冗余Oracle Home安装方法,并且ASM也从DBCA脱离出来了,有了专门的自动存储管理配置助手(ASMCA)。下面是ASM新特性:

智能化数据布局:在之前的版本中,要配置ASM磁盘可能需要存储管理员的参与,需要配置磁盘I/O 子系统,Oracle 11g R2提供了ASM分配单元,可以直接受益于磁盘外缘柱面,获得更快的速度,可以将数据文件,重做日志文件和控制放在磁盘外缘获得更好的性能。

EM支持工作台扩展:在这个版本中对Oracle 11g R1引入到企业管理控制台中的自动诊断仓库(ADR)进行了扩展,包括支持ASM诊断,将所有诊断信息打包直接发送给Oracle技术支持,以便获得更快速的ASM性能问题解决方案。

ASMCMD增强:自动存储管理命令行实用工具(ASMCMD)也获得了不少增强,包括:

1)启动和停止ASM实例;

2)备份,恢复和维护ASM实例的服务器参数文件(spfile);

3)实用iostat监控ASM磁盘组的性能;

4)维护新的ASM集群文件系统(ACFS)中的磁盘卷,目录和文件存储,我的下一个话题就是它。

3 ACFS –一个强健的集群文件系统

Oracle之前也发布过集群文件系统(OCFS),之后又发布了增强版OCFS2,它让Oracle RAC实例可以通过共享存储读写数据库文件,重做日志文件和控制文件。

此外,OCFS也允许RAC数据库的Oracle集群注册文件(OCR)和表决磁盘存储在集群文件系统中,在Oracle 10g R2中,这个需求被取消了,OCR文件和表决磁盘可以存储在裸设备或裸块设备中,如果你曾经在原始设备上丢失过这些文件的所有副本,你一定了解要恢复它们是多么繁琐,因此,在Oracle 11g R2中,将不再支持将这些文件存储在裸设备上。

为了提高这些关键文件的存活能力,Oracle 11g R2正式引入了一种新的集群文件系统,称之为ASM 集群文件系统(ACFS),在RAC环境中,ACFS可以为OCR文件和表决磁盘提供更好的保护,它允许创建五份OCR文件副本,之前的集群文件系统仅允许保存两份OCR文件,一个主OCR,一个镜像OCR,但ACFS不适合单独的RAC环境,除此之外,几乎所有与操作系统和数据相关的文件都可以从ACFS的安全性和文件共享特性受益。

动态卷管理器:Oracle 11g R2提供了一个新的ASM动态卷管理器(ADVM)来配置和维护存储在ACFS 文件系统中的文件,使用ADVM可以在ASM磁盘组内构建一个ADVM卷设备,管理存储在ADVM卷设备中的文件,以及按需调整ADVM卷设备空间大小,最重要的是,因为ADVM是构建在ASM文件系统架构之上的,可以保证存储在这些卷中的文件受到良好的保护,不会出现意外丢失,因为ASM提供了类似RAID的磁盘阵列的功能。

文件访问控制:使用传统的Windows风格访问控制列表(ACL)或Unix/Linux下的用户/组/其它访问权限风格为ACFS目录和文件授予读,写和执行权限,可以通过图形化的企业管理控制台或命令行程序ASMCMD管理ACFS目录和文件安全。

文件系统快照(FSS):Oracle 11g R2通过它的文件系统快照(FSS)功能可以对ACFS文件系统执行快照,一个快照是所选ACFS文件系统的一个只读副本,对相同的ACFS,它会自动保留63个独立的ACFS 快照,当某个ACFS文件被不经意地更新,删除或其它危险操作时,这个特性非常有用,利用11g R2企业管理控制台或ACFS acfsutil命令行工具可以找出该文件合适的版本并执行恢复。

4 改善的软件安装和打补丁过程

作为一名DBA压力最大的活就是给Oracle数据库打补丁了,如果补丁可能会引入对数据库有害的行为,不得不花费大量的时间和精力来确定和审核。

集群验证实用程序集成:从Oracle 10g开始引入了集群验证实用程序(CVU),现在已经完全集成到Oracle通用安装程序(OUI)和其它配置助手(如DBCA,DBUA)中了。

零停机修补的集群:当为Oracle集群打补丁时,Oracle 11g R2在一个不合适的位置升级方式应用补丁,这意味着会有两个Oracle Home,其中一个专门用来存放补丁的,但一次只能激活一个Oracle Home,在Oracle 11g R2中不用再为升级全部关闭Oracle集群了,实现真正的零停机打补丁。

5 DBMS_SCHEDULER升级

古老的DBMS_SCHEDULER包得到了彻底的更新,DBA经常使用这个包来调度作业。

文件监视器:以前的版本无法在批处理过程中检测大多数触发事件,如检测一个文件抵达某个目录,在Oracle 11g R2中,使用新的文件监视器可以缓解这个问题,一旦预期的文件抵达目录,

DBMS_SCHEDULER现在就可以检测到了,并在新的对象类型SCHEDULER_FILEWATCHER_RESULT 中注册它的到来,它通过新的CREATE_FILE_WATCHER存储过程向DBMS_SCHEDULER发送一个信号触发作业。

内置的email通知:无论何时,DBMS_SCHEDULER调度任务启动、失败或完成时,任务的状态可以立即通过email发送出去,虽然在以前的版本中也能实现这个功能,但要么调用DBMS_MAIL存储过程,要么调用DBMS_SMTP存储过程,现在这个功能合并到DBMS_SCHEDULER中了。

远程作业:DBMS_SCHEDULER现在允许DBA在远程数据库上创建和调度作业,现在我终于可以在生产库PROD03上通过DBMS_SCHEDULER调用生产库DBMS_SCHEDULER上的存储过程执行任务了,这意味着我现在可以在一台数据库上集中创建和维护调度任务了。

多作业目标:最后,现在可以在多个数据库实例上同时调度DBMS_SCHEDULER任务了,在RAC 环境中,这个特性非常有用,因为我可以利用多个数据库实例将长时间运行任务分成几部分,分别在不同的数据库实例上执行更小的任务。

1.2安装规划

硬件资源规划:

两台a840r-g作为两个数据库结点,FC连接1TB的ds800存储作为共享存储。

IP规划

127.0.0.1 localhost.localdomain localhost

#public ip

10.190.227.56 rac1

10.190.227.57 rac2

#priv ip

10.10.10.56 rac1-priv

10.10.10.57 rac2-priv

#virtual ip

10.190.227.231 rac1-vip

10.190.227.232 rac2-vip

#scan ip

10.190.227.230 racscan

2. 操作系统安装和参数设置

2.1安装包选择

操作系统安装过程中要安装好libcap,libstdc++43-devel包,并且安装时最后不要选择系统自带的oracle相关环境。

2.2 安装包补丁

安装系统后网上下载安装

oracleasm-support-2.1.7-1.SLE11.x86_64.rpm

oracleasmlib-2.0.4-1.sle11.x86_64.rpm

两个软件包,用来实现asm管理。

2.3多路径软件安装

针对FC光纤多路径环境首先安装多路径软件,具体过程如下:

解压rdac-LINUX-09.03.0B05.0439-source.tar.gz

目录里Root用户执行

make&&make install

安装完成后修改/boot/grub/menu.lst文件在启动项上修改下面一行

initrd /initrd-2.6.32.12-0.7-default-kdump

重启系统。

2.4存储划分

本次实验过程挂在共享磁盘为1T,采用分区如下:创建asm盘

其中3个400M的crs,3个200Gdata,2个100Grecovery和1个100G的archive。

2.5系统参数设置

vi /etc/security/limits.conf

末尾添加:

grid soft nproc 2047

grid hard nproc 16384

grid soft nofile 1024

grid hard nofile 65536

oracle soft nproc 2047

oracle hard nproc 16384

oracle soft nofile 1024

oracle hard nofile 65536

vi /etc/pam.d/login

末尾添加:

session required pam_limits.so

vi /etc/sysctl.conf

末尾添加:

fs.aio-max-nr = 1048576

fs.file-max = 6815744

kernel.shmall = 2097152

kernel.shmmax = 536870912

kernel.shmmni = 4096

kernel.sem = 250 32000 100 128

net.ipv4.ip_local_port_range = 9000 65500

net.core.rmem_default = 262144

net.core.rmem_max = 4194304

net.core.wmem_default = 262144

net.core.wmem_max = 1048586

执行sysctl –p生效。

2.6设置时间同步应用

grid时间同步所需要的设置(11gR2新增检查项)

/etc/init.d/ntp stop

chkconfig ntp off

mv /etc/ntp.conf /etc/https://www.wendangku.net/doc/4318877817.html,

2.7scan设置

在Oracle 11gR2以前,如果数据库采用了RAC架构,在客户端的tnsnames中,需要配置多个节点的连接信息,从而实现诸如负载均衡,failover等等RAC的特性。因此,当数据库RAC集群需要添加或删除节点时,需要及时对客户端机器的tns进行更新,以免出现安全隐患。

在11gR2中,为了简化该项配置工作,引入了SCAN(Single Client Access Name)的特性,该特性的好处在于,在数据库与客户端之间,添加了一层虚拟的服务层,就是所谓的scan ip以及scan ip listener,在客户端仅需要配置scan ip的tns信息,通过scan ip listener,连接后台集群数据库。这样,不论集群数据库是否有添加或者删除节点的操作,均不会对client产生影响。

下面,具体介绍下SCAN(Single Client Access Name)的架构以及配置。

11gR2引入的SCAN包含在安装grid的过程中。SCAN的定义,有两种途径:

<1 >在DNS中定义域名。

<2>通过oracle提供的Grid Naming Server(GNS)实现DHCP自定义。

如果通过dns来定义,则需要在网络中定义3个SCAN IP地址,指向同一个域名,这3个ip地址必须处于同一个子网内。另外,SCAN IP是由oracle clusterware管理的,类似于10g中的vip,在grid安装前,此IP是无法ping通的。

如果使用GNS的方式,则必须有DHCP服务,在cluster的配置过程中,将会自动向DHCP服务器申请3个IP地址作为SCAN IP使用。

除了SCAN IP,在cluster的配置过程中,SCAN IP LISTENER服务也会被建立,每个SCAN IP对应一个SCAN IP LISTENER,并且,为了提升高可用性,3个SCAN IP以及其对应的SCAN IP LISTENER将被独立的分配到各个节点上。如果cluster中其中某个运行scan ip的节点出现异常,则其余两个正常的scan ip节点将自动接管。注意,此处有个注意点,如果客户端是11gR2的版本,则客户端只需在tns中配置域名解析,即可实现failover,如果客户端版本低于11gR2,则无法通过域名解析出3个SCAN IP地址,因此如果要实现failover,必须在客户端的tns中配置3个SCAN IP的地址进行解析,这也是为何oracle强烈建议在使用11gR2数据库时,客户端也最好使用11gR2的原因。

下面依次介绍scanIP设置过程。

1.重命名系统本身的nslookup脚本

#mv /usr/bin/nslookup /usr/bin/nslookup.original

2.建立一个新的nslookup脚本

#vi/usr/bin/nslookup

#!/bin/bash

HOSTNAME=${1}

if [[ $HOSTNAME = "racv" ]]; then

echo "Server: 10.190.227.231 "

echo "Address: 10.190.227.231 #53"

echo "Non-authoritative answer:"

echo "Name: racscan"

echo "Address: 10.190.227.230 "

else

/usr/bin/nslookup.original $HOSTNAME

fi

解释:这里的10.190.227.231 这个ip是a机上面的vip地址,而10.190.227.230 这个ip就是在host 里面添加的scan-ip地址,必须是没有使用的ip,意思类似于rac中的vip地址。只是11.2中把这个vip 也再绑定了一个ip ,其实也是一个vip地址。racv是host文件里面对应的域名,安装rac时候提示要填写,安装时候请注意!

下面这个是在b机上面配置的nslookup

#!/bin/bash

HOSTNAME=${1}

if [[ $HOSTNAME = "racv" ]]; then

echo "Server: 10.190.227.232 "

echo "Address: 10.190.227.232 #53"

echo "Non-authoritative answer:"

echo "Name: racscan"

echo "Address: 10.190.227.230 "

else

/usr/bin/nslookup.original $HOSTNAME

fi

3.赋予脚本可执行权限

#chmod 755 /usr/bin/nslookup

4.测试解析(成功)

rac1:/home # nslookup racscan

Server: 10.190.227.231

Address: 10.190.227.231 #53

Non-authoritative answer:

Name: racscan

Address: 10.190.227.230

3. 安装前配置

3.1系统用户权限设置

在每个节点下分别用root用户执行:(下面的设置脚本默认在suse11sp1系统下执行,且安装过程中没有安装oracle数据库的相关选项)

/usr/sbin/groupadd -g 501 oinstall

/usr/sbin/groupadd -g 502 dba

/usr/sbin/groupadd -g 503 oper

/usr/sbin/groupadd -g 504 asmadmin

/usr/sbin/groupadd -g 505 asmoper

/usr/sbin/groupadd -g 506 asmdba

/usr/sbin/useradd -g oinstall -G dba,asmdba,oper oracle

/usr/sbin/useradd -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grid

mkdir -p /home/oracle

mkdir -p /home/grid

chown -R oracle:oinstall /home/oracle

chown -R grid:oinstall /home/grid

mkdir -p /oracle/app

chown -R grid:oinstall /oracle/app/

chmod -R 775 /oracle/app/

mkdir -p /oracle/app/oraInventory

chown -R grid:oinstall /oracle/app/oraInventory

chmod -R 775 /oracle/app/oraInventory

mkdir -p /oracle/app/grid

mkdir -p /oracle/app/oracle

chown -R grid:oinstall /oracle/app/grid

chown -R oracle:oinstall /oracle/app/oracle

chmod -R 775 /oracle/app/oracle

chmod -R 775 /oracle/app/grid

passwd grid

passwd oracle

oracle用户的.bash_profile设置:

TMP=/tmp; export TMP

TMPDIR=$TMP; export TMPDIR

ORACLE_BASE=/oracle/app/oracle; export ORACLE_BASE

ORACLE_HOME=$ORACLE_BASE/product/11.2.0; export ORACLE_HOME

ORACLE_SID=racdb1; export ORACLE_SID

ORACLE_TERM=xterm; export ORACLE_TERM

PATH=/usr/sbin:$PATH; export PATH

PATH=$ORACLE_HOME/bin:$PATH; export PATH

LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib; export LD_LIBRARY_PATH

CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib; export CLASSPATH NLS_DATE_FORMAT="yyyy-mm-dd HH24:MI:SS"; export NLS_DATE_FORMAT

NLS_LANG=AMERICAN_AMERICA.ZHS16GBK;export NLS_LANG

if [ $USER = "oracle" ] || [ $USER = "grid" ]; then

if [ $SHELL = "/bin/ksh" ]; then

ulimit -p 16384

ulimit -n 65536

else

ulimit -u 16384 -n 65536

fi

umask 022

fi

grid用户的.bash_profile设置:

TMPDIR=$TMP; export TMPDIR

ORACLE_SID=+ASM1; export ORACLE_SID

ORACLE_BASE=/oracle/app/grid; export ORACLE_BASE

ORACLE_HOME=/oracle/app/grid/product/11.2.0; export ORACLE_HOME

NLS_DATE_FORMAT="yyyy-mm-dd HH24:MI:SS"; export NLS_DATE_FORMAT

THREADS_FLAG=native; export THREADS_FLAG

PATH=$ORACLE_HOME/bin:$PATH; export PATH

LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib; export LD_LIBRARY_PATH

CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib; export CLASSPATH THREADS_FLAG=native; export THREADS_FLAG

export CVUQDISK GRP=oinstall

PATH=$ORACLE_HOME/bin:$PATH; export PATH

if [ $USER = "oracle" ] || [ $USER = "grid" ]; then

if [ $SHELL = "/bin/ksh" ]; then

ulimit -p 16384

ulimit -n 65536

else

ulimit -u 16384 -n 65536

fi

umask 022

fi

分别设置oracle和grid用户的环境变量:注意oracle_sid的不同。

3.2配置安装用户的无密码ssh访问

分别用每个用户在每个节点都执行:

ssh-keygen -t rsa

ssh-keygen -t dsa

cd .ssh/

cat id_dsa.pub >> authorized_keys

cat id_rsa.pub >> authorized_keys

然后执行

ssh rac*(另一个节点)cat /home/grid/.ssh/authorized_keys >> authorized_keys

之后一定要执行下用户到节点本身的ssh验证,如果不做的话后期安装时候会验证不通过的报错。

3.3配置asm(自动存储管理)

参照下面过程配置asm:

rac1:/home # /etc/init.d/oracleasm configure

Configuring the Oracle ASM library driver.

This will configure the on-boot properties of the Oracle ASM library

driver. The following questions will determine whether the driver is

loaded on boot and what permissions it will have. The current values

will be shown in brackets ('[]'). Hitting without typing an

answer will keep that current value. Ctrl-C will abort.

Default user to own the driver interface []: grid

Default group to own the driver interface []: asmadmin

Start Oracle ASM library driver on boot (y/n) [n]: y

Scan for Oracle ASM disks on boot (y/n) [y]: y

Writing Oracle ASM library driver configuration: done

Initializing the Oracle ASMLib driver: done

Scanning the system for Oracle ASMLib disks: done

3.4脚本执行安装环境检验

Grid用户解压安装软件linux.x64_11gR2_grid.zip生成grid目录

用root用户安装grid目录软件包里的cvuqdisk-1.0.7-1.rpm

然后用grid用户执行环境检查:

./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -fixup –verbose

./runcluvfy.sh stage -post hwos -n rac1,rac2 -verbose

4. 安装grid

grid用户执行:./runInstaller,按照图示进行安装

点击yes继续

oracle双机热备架构方案

oracle双机热备架构方案 双机热备有两种实现模式,一种是基于共享的储备设备的方式,另一种是没有共享的储备设备的方式,一样称为纯软件方式。 基于储备共享的双机热备是双机热备的最标准方案。 关于这种方式,采纳两台(或多台)服务器,使用共享的储备设备(磁盘阵列柜或储备区域网SAN)。两台服务器能够采纳互备、主从、并行等不同的方式。在工作过程中,两台服务器将以一个虚拟的IP地址对外提供服务,依工作方式的不同,将服务要求发送给其中一台服务器承担。同时,服务器通过心跳线(目前往往采纳建立私有网络的方式)侦测另一台服务器的工作状况。当一台服务器显现故障时,另一台服务器依照心跳侦测的情形做出判定,并进行切换,接管服务。关于用户而言,这一过程是全自动的,在专门短时刻内完成,从而对业务可不能造成阻碍。由于使用共享的储备设备,因此两台服务器使用的实际上是一样的数据,由双机或集群软件对其进行治理。 关于纯软件的方式,则是通过支持镜像的双机软件,将数据能够实时复制到另一台服务器上,如此同样的数据就在两台服务器上各存在一份,假如一台服务器显现故障,能够及时切换到另一台服务器。 纯软件方式还有另外一种情形,即服务器只是提供应用服务,而并不储存数据(比如只进行某些运算,做为应用服务器使用)。这种情形下同样也不需要使用共享的储备设备,而能够直截了当使用双机或集群软件即可。但这种情形事实上与镜像无关,只只是是标准的双机热备的一种小的变化。 本方案是前者————基于共享储备设备的数据库热备。 数据库服务器双机热备的好处 这种配置模式的优点是有利于数据库的升级,当其中systemA需要升级的时候,就把服务切换到systemB上运行,升级A的DB2程序,之后还能够把服务切换回到A来,然后升级B的DB2程序。那个升级过程可不能阻碍用户的DB2使用,因为总有一台机器能够使用DB2程序来响应用户的服务要求。 服务器的故障可能由各种缘故引起,如设备故障、操作系统故障、软件系统故障等等。一样地讲,在技术人员在现场的情形下,复原服务器正常可能需要10分钟、几小时甚至几天。从实际体会上看,除非是简单地重启服务器(可能隐患仍旧存在),否则往往需要几个小时以上。而假如技术人员不在现场,则复原服务的时刻就更长了。 而关于一些重要系统而言,用户是专门难忍耐如此长时刻的服务中断的。因此,就需要通过双机热备,来幸免长时刻的服务中断,保证系统长期、可靠的服务。

防火墙双机热备配置案例

双机热备 网络卫士防火墙可以实现多种方式下的冗余备份,包括:双机热备模式、负载均衡模式和连接保护模式。 在双机热备模式下(最多支持九台设备),任何时刻都只有一台防火墙(主墙)处于工作状态,承担报文转发任务,一组防火墙处于备份状态并随时接替任务。当主墙的任何一个接口(不包括心跳口)出现故障时,处于备份状态的防火墙经过协商后,由优先级高的防火墙接替主墙的工作,进行数据转发。 在负载均衡模式下(最多支持九台设备),两台/多台防火墙并行工作,都处于正常的数据转发状态。每台防火墙中设置多个VRRP备份组,两台/多台防火墙中VRID相同的组之间可以相互备份,以便确保某台设备故障时,其他的设备能够接替其工作。 在连接保护模式下(最多支持九台设备),防火墙之间只同步连接信息,并不同步状态信息。当两台/多台防火墙均正常工作时,由上下游的设备通过运行VRRP或HSRP进行冗余备份,以便决定流量由哪台防火墙转发,所有防火墙处于负载分担状态,当其中一台发生故障时,上下游设备经过协商后会将其上的数据流通过其他防火墙转发。 双机热备模式 基本需求 图 1双机热备模式的网络拓扑图 上图是一个简单的双机热备的主备模式拓扑图,主墙和一台从墙并联工作,两个防火墙的Eth2接口为心跳口,由心跳线连接用来协商状态,同步对象及配置信息。 配置要点 ?设置HA心跳口属性 ?设置除心跳口以外的其余通信接口属于VRID2 ?指定HA的工作模式及心跳口的本地地址和对端地址 ?主从防火墙的配置同步 WEBUI配置步骤 1)配置HA心跳口和其他通讯接口地址 HA心跳口必须工作在路由模式下,而且要配置同一网段的IP以保证相互通信。接口属性必须要勾选“ha-static”选项,否则HA心跳口的IP地址信息会在主从墙运行配置同步时被对方覆盖。 ?主墙 a)配置HA心跳口地址。 ①点击网络管理>接口,然后选择“物理接口”页签,点击eth2接口后的“设置”图标,配置基本信息,如下图所示。 点击“确定”按钮保存配置。

VMWare无法安装解决方法----彻底删除VMWare

VMWare无法安装解决方法——彻底删除VMWare 把下面代码复制到记事本——另存为XXX.bat,然后运行即可 ========================================================= cls @echo off CLS color 0a echo 取消DLL文件的注册... regsvr32 /u /s "%cd%/vmappcfg.dll" regsvr32 /u /s "%cd%/vmappsdk.dll" regsvr32 /u /s "%cd%/vmdbCOM.dll" regsvr32 /u /s "%cd%/vmhwcfg.dll" regsvr32 /u /s "%cd%\V2V\IntraProcessLogging.dll" regsvr32 /u /s "%cd%\V2V\reconfig.dll" regsvr32 /u /s "%cd%\V2V\vhdcvtcom.dll" regsvr32 /u /s "%cd%\V2V\vmc2vmx.dll" regsvr32 /u /s "%cd%\V2V\vpcCvt.dll" echo 正在删除虚拟网卡,请稍后…… :delete VM Network start /wait vnetlib -- remove adapter vmnet1 start /wait vnetlib -- remove adapter vmnet8 start /wait vnetlib -- remove dhcp vmnet1 start /wait vnetlib -- remove dhcp vmnet8 start /wait vnetlib -- remove nat vmnet8 :delservice echo 正在删除服务... call :删除服务vmnetbridge call :删除服务VMAuthdService call :删除服务vmx86 call :删除服务VMnetAdapter call :删除服务"VMware NAT Service" call :删除服务"VMnetDHCP" call :删除服务VMnetuserif call :删除服务hcmon call :删除服务Vmparport call :删除服务vstor2-ws60 call :删除服务vstor2 call :删除服务vmkbd "%cd%\VMMount\vmount2.exe" /Unregserver netcfg -u vmware_bridge

SUN_E2900服务器双机安装oracle10g操作实践

SUN E290C?务器双机安装oraclelOg操作文档、环境描述 磁盘阵列 如图所示: 2台主机是数据服务器,分别使用4Gb光纤连接磁盘阵列,组成高可用(HA )集群。主机的配置为:2台SUN E2900服务器,8CPU,32G内存,2*146G硬盘;2台主机之间有心跳 线连接;磁盘阵列型号为SUN STK 6140,配置16*300G硬盘;从陈列上为主机分配了两个LUN,分别为oracle数据存储区和oracle数据备份区;双机软件采用SUN Cluster3.2 ;数据库的型号为oracle10g(版本号10.2.0.2)。 两台主机采用主备方式集群。 数据库软件安装在本地磁盘,数据库建在磁盘阵列上,数据库实例默认起在主机上,当主机失效后,由备机接管数据库空间和备份区空间并启动实例。 三、安装规划 主机IP 地址:192.168.10.1 备机IP 地址:192.168.10.5 Oracle 数据逻辑地址:192.168.10.81 主服务器主机名:HNDB1 备服务器主机名:HNDB2 逻辑主机名:oracle-lh 磁盘阵列上的为主机分配LUN3,500G,本地挂接点为/opt/oradata,用于创建数据库;

磁盘阵列上的为主机分配LUN4,500G,本地挂接点为/opt/orabackup,用于放数据库备份数据;数据库HOME 路径为:/opt/oracle/product/10.2.0/ ,位于本地磁盘; 数据库BASE 路径为:/opt/oracle/ ,位于本地磁盘; oracle 数据库SID :oracle10g 四、安装实践 首先在两台SUN 主机上安装操作系统(solaris10 ),打补丁,配置磁盘阵列并使之可以手工mount 切换。(步骤省略) 1、准备条件把数据库的逻辑主机名添加到hosts 文件里:在两台主机的/etc/hosts 文件中分别添加如下一行: 192.168.10.81 oracle-lh 修改内核参数 通常oracle 的安装手册里会有一个推荐的内核参数配置,里面的这一项(最大共享内存) shmsys:shminfo_shmmax 设置成4G ,根据本机的实际情况(32G 物理内存)将此项设置改 为26G 。其它设置参考Granite 安装手册的要求进行修改。 # vi /etc/system # 加入内容: set shmsys:shminfo_shmmax=26000000000 set shmsys:shminfo_shmseg=1024 set shmsys:shminfo_shmmni=1024 set semsys:seminfo_semaem=16384 set semsys:seminfo_semmni=1024 set semsys:seminfo_semmap=1026 set semsys:seminfo_semmns=16384 set semsys:seminfo_semmsl=100 set semsys:seminfo_semopm=100 set semsys:seminfo_semmnu=2048 set semsys:seminfo_semume=256 set msgsys:msginfo_msgmap=1026 set msgsys:msginfo_msgmax=65535 set semsys:seminfo_semvmx=32767 set rlim_fd_cur=1024 〃根据硬件E2900硬件有32G物理内存的特点,将最大共享内存调整到26G;其余参数参考Granite 安装文档设置; 2、创建用户和组 创建oinstall 、dba、granite 组(granite 组根据安装手册的要求创建) # groupadd oinstall # groupadd dba # groupadd granite 创建oracle 的HOME 目录:

VMware虚拟机安装过程之教程

一虚拟机VMware的安装 1、准备工作 1.需要软件VMware (文中使用的版本:VMware-WorkStation6.0.2) 最新推荐系统下载地址: https://www.wendangku.net/doc/4318877817.html,/soft/1/15/14468.html 2.需要系统镜像一个.(文中版本:深度XP SP2 V5.10) 新系统下载地址: GHOSTXP SP3 电脑城2010 元宵纯净版 2、开始安装 1.打开压缩包,发现里面有几个批处理,运行其中的“安装.bat”,即出现下图界 面, 等待完成后,就可以选择安装相关服务。即下图内容:

2.这个图(上图)中,选择1和3即可。1是连接网络必须。 3.注意看安装完成后的正确提示。

4.这样,虚拟机就部署完成了。 5.第一次运行该虚拟机,应该选择"新建虚拟机",安装工作环境也就是操作系统! 6.接下去就到了选择虚拟机的配置,"经典"和"自定义",其中"自定义"包含了"硬件兼容性"\"内存配置"等 等繁多的设置,我想,有足够理由让新手选择"经典"作为安装配置,继续下去~(选"经典") 7.这里要求选择你即将安装的操作系统类型以及相应版本.根据前面的准备工作,我们选择 Windows系列--XP专业版,如图,(注意别选到X64了....),继续"下一步",

8.这里要求选择添加的网络连接方式.我们选择默认的第1个内容,也就是"桥接".(关于网络的 连接方式区别,后面将会详细说明.),继续"下一步",

9.这里已经是这个配置的最后一个选择了.看图说明..... 二虚拟机VMware的使用 1、开始使用 1.第一次使用虚拟机未必就真的这么简单?没错...不过还有些设置和大家了解下. 其中如画面,我们先点击"编辑虚拟机设置",发现弹出的内容似曾相识,原来就是刚才的右边界面,

oracle HA数据库 安装

AIX 6.1 双机情况下安装 ORACLE数据库

第一章目标 指导Oracle 10G 双机数据库在IBM P 系列机型上的安装 设备命名及网络地址分配 集群环境配置 1.1 硬件环境 主机:2台IBM P 磁盘阵列:1台DS 5020 公共网络 交换设备 内存(Memory): 检测命令:$/usr/sbin/lsattr –E –l sys0 –a realmem 处理器(CPU):64-bit 处理器 检测命令:getconf HARDWARE_BITMODE 交换空间(swap): 检测命令:$/usr/sbin/lsps –a 1.2 软件环境 1. 操作系统:English AIX 6.1 (TL ?)

2. 集群软件: 数据库的数据文件存储于磁盘阵列文件系统上:配套HACMP 5.? 3. 数据库软件:Oracle10G Enterprise Edition Release 10.2.0.1-64bit Production for IBM 4. 数据库软件补丁:Oracle10G Enterprise Edition Patch Set 10.2.0.x for IBM 补丁需要用户提供metalink 的账户号和密码 5. 数据库软件安装空间要求 页面空间文件系统先用#lsps -a查看当前页面空间的大小及使用率 确定要扩容的大小后,使用下列命令进行扩容: #lsvg rootvg 查看当前的PP SIZE大小 #smit chps 改变页面空间的大小(根据内存而定,2G以内为内存的2倍,2G 以上设为2G) /tmp目录需有2G剩余空间。 /var 目录需要2G剩余空间 ORACLE软件安装需10GB硬盘空间。 1.3 补丁 1. IBM AIX系统环境补丁 系统环境补丁列表:

ORACLE双机热备

HP570G2+msa1000+windows2kads+ORACLE8I 做双机热备 1、硬件基础 HP 570G2服务器两台,每台两块网卡(自带HP3162/100M网卡,另各添加一块HP3132/100M网卡) 服务器本地各有块SCSI 36G硬盘。 HP SAN磁盘阵列柜型号MSA100 F200 1台 Cisco100M交换机1台 磁盘系统规划,服务器磁盘分3个区各10G盘符为C、D 、E cd 为NTFS格式C盘为系统D盘为oracle程序目录 E为FAT32格式,(做GHOST备份:) )阵列柜为Y盘作为oracle的数据库文件位置,数据库SID为orcl。 2:软件基础: Windows2000 advance server oracle8i(8.1.7.0.0)企业版 oracle failer safe (3.3.2版,oracle网站可下载,本用于oracle9i的, 在E文网站看到有人说是兼容8I的,加上老3.2.2版本的oracle install程序打不开,只能用8i的install程序安装,所以......) oracle程序安装在每个服务器的D盘d:\oracle\ora81 下面 3、各设备的连接方式和IP地址分配: 服务器之间用心跳线(就是双机直连的那种跳线)连接,作用2台机器集群服务的互相监控通信。 服务器分别与交换机连接(我选择HP3162网卡与交换机相连,HP3132网卡作为心跳线的连接)。 连接心跳线的2块HP3132网卡为10.10.10.1010.10.10.11 对外提供服务的2块网卡IP 为192.168.0.10 192.168.0.11 微软集群的虚拟Ip为192.168.0.15 服务器分别与阵列柜连接(使用2G光纤跳线),特别注意,SAN阵列柜自带一个FC 口的模组,另选配了一个2/3 FC HUB 模组(就是自带带2个FC口,无其它特别之处。) 实际我们只是用2/3 FC HUB 模组连接2台服务器,由于我们SAN前面板我们只安装了一个控制模块,后面只有一个模组可用(咨询HP工程师得到的答案)所以,请把安装在后面的2/3 FC HUB模组的位置,对着前面控制模组的位置从后面安装进去,这样就可以了,另外一个不可用的模组上的2个灯为黄色闪烁,呵呵,你可拔下它,扔掉,也可就这样不管,能不能再退给HP啊?哪位告诉我,这样也太浪费了,上万人民币呢!: ) 4、服务器安装 (安装系统) 首先在BIOS中选择OS为windows2000/windows2003,然后用HP服务器自带的BOOT CD引导服务器,出现图形界面的向导,点击Setup图标,选择OS类型,选择OS分区大小, 我分了10G空间,选择安装win2kadserver,输入CD-KEY,放入win2kADS安装光盘,剩下的安装过程就都是自动的了。

双机热备的步骤

双机热备的步骤 sybase双机问题 ,两台IBM3650,DS3400阵列,用的ROSEHA双机软件。SYBASE 12.5在win2003上不能自动启动,SYBASE应如何建库啊???lllenxue发表于2008-4-2814:07 看一下sybase的服务设置是不是自动启用的 建库进入控制台,建库之前先建设备,之后在设备上按你实际需要创建数据库 netmaple发表于2008-4-3009:33 这个知道呀,就是sybase做双机建库后备份机就不能起SYBASE服务了,不知道做双机如何建库 lllenxue发表于2008-4-3014:19 你参考一下这篇文章,希望对你能有所帮助 ROSE HA3107的安装过程(Sybase)

安装环境: 两台服务器(以下分别称为“服务器1”和“服务器2”,一套磁盘整列柜,Sybase数据库软件,ROSE HA3107软件。) 安装过程: 1、安装WINDOWS NT4.0 (1)在安装NT4.0的过程中,必须安装SNMP和Wins服务(WINDOWS网际名称服务)。 (2)将所有的驱动程序安装好,配置好网络。 (3)安装Services Pack。(SP4,SP5都可以) (4)在两台NT服务器的磁盘管理器中查看磁盘柜中将要安装数据库的卷的盘符是否相同,该盘符必须相同。 2、安装Sybase数据库 (1)在公共磁盘上建立Sybase目录,在其下建立Data,Install 两个子目录。 (2)关闭服务器2,在服务器1上安装Sybase数据库。在安装过程中,将程序文件安装在本地硬盘上,把库文件安装在磁盘柜上,然后重启计算机。 (3)安装完毕后,进入Sybase的Server Config中,删除数据库安装过程中默认建立的SQL Server,Backup Server,Monitor Server。 (4)将公共磁盘Sybase\Data目录下的Master.dat,Sybprocs.dat文件删除。

ORACLE 10g双机热备安装手册

ORACLE 10G双机热备安装手册 1安装前准备 ●Windows 20003操作系统已经安装好群集,确保服务器群集正常 ●群集配置如下: ?SERVER1机(xjmes3)PUBLIC IP 地址:10.205.28.217 ?SERVER2机(xjmes4)PUBLIC IP 地址:10.205.28.218 ?群集(xjmesserver)虚拟IP 地址:10.205.28.216 ●O盘为IBM DS300磁盘柜的盘符,为共享磁盘。 ●ORACLE 10G 数据库服务器软件 2在Server1机上安装Oracle 10G 群集切换到Server1上,Server2关机。 在o盘建oracle和log两个空文件夹。 2.1修改HOSTS文件 修改Server1机器上的HOSTS文件(在C:\WINDOWS\system32\drivers\etc文件夹中)如下图:

2.2仅安装数据库软件 在Server1机安装ORACLE,不安装数据库文件,只安装ORACLE数据库软件,主目录安装在本机磁盘(如C盘)。 ●在下图安装类型中选择高级安装: ●点击下一步,进入下图页面:

●把上图的路径o改成c (服务器本机自带的盘符),点击下一步,进入下图页面: ●点击上图页面的下一步,进入下图:

●当上图页面左下侧出现“0个要求将验证”时,点击下一步,将进入下图页面: ●在上图中选择“仅安装数据库软件”,再点击下一步按钮,进入下图页面:

●点击上图页面的安装按钮,进入下图页面: ●若需要改动可以点击上图“停止安装”按钮,然后点击“上一步”,即可进行调整,如果不需 要改动等安装进行到100%后,将会自动进入安装结束页面下图:

Rose双机热备软件安装指南 共享磁盘阵列方式

ROSE 共享存储双机热备解决方案 解决方案优点: ●对服务器硬件配置要求不高,可以根据应用情况采用不同型号或配置●可利用原有生产系统快速构建双机系统,性价比高 ●系统切换时间短,最大程度减少业务中断的影响 ●切换过程对应用程序无影响,无需重新启动或登录,做到无人值守

●系统效率高,系统中数据读写、管理及容错由磁盘阵列来完成。而系统服务器故障监控切换处理由HA软件来完成。双机监控依靠RS232串口线路或专用TCP/IP网路线路,既不占用主机CPU资源也不占用基础业务网络带宽,在实际应用中得到用户的一致好评 ●支持丰富的应用配置,如:Oracle、MSSQL、Sybase、MySQL、文件服务、Web服务等,无需额外插件支持用户自定义应用 ●硬件可采用机架式结构,便于维护管理 RoseHA产品介绍 RoseHA高可用系统解决方案,由两台服务器和一台共享存储设备组成主要硬件环境,通过RoseHA持续、稳定、高效的软件系统,实现两个节点的高可用功能。采用Rose基于共享存储的高可用解决方案,实现企业关键业务7×24小时不间断运营,是企业最佳之选。 RoseHA的工作原理 RoseHA双机系统的两台服务器(主机)都与磁盘阵列(共享存储)系统连接,用户的操作系统、应用软件和RoseHA高可用软件分别安装在两台主机上,数据库等共享数据存放在存储系统上,两台主机之间通过私用心跳网络连接。配置好的系统主机开始工作后,RoseHA软件开始监控系统,通过私用网络传递的心跳信息,每台主机上的RoseHA软件都可监控另一台主机的状态。当工作主机发生故障时,心跳信息就会产生变化,这种变化可以通过私用网络被RoseHA软件捕捉。当捕捉到这种变化后RoseHA就会控制系统进行主机切换,即备份机启动和工作主机一样的应用程序接管工作主机的工作(包括提供TCP/IP网络服务、存储系统的存取等服务)并进行报警,提示管理人员对故障主机进行维修。当维修完毕后,可以根据RoseHA的设定自动或手动再切换回来,也可以不切换,此时维修好的主机就作为备份机,双机系统继续工作。 RoseHA实现容错功能的关键在于,对客户端来说主机是透明的,当系统发生错误而进行切换时,即主机的切换在客户端看来没有变化,所有基于主机的应用都仍然正常运行。RoseHA采用了虚拟IP地址映射技术来实现此功能。客户端通过虚拟地址和工作主机通讯,无论系统是否发生切换,虚拟地址始终指向工作主机。在进行网络服务时,RoseHA提供一个逻辑的虚拟地址,任何一个客户端需要请求服务时只需要使用这个虚拟地址。正常运行时,虚拟地址及网络服务由主服务器提供。当主服务器出现故障时,RoseHA会将虚拟地址转移到另外一台服务器的网卡上,继续提供网络服务。切换完成后,在客户端看来系统并没有出现故障,网络服务仍然可以使用。除IP地址外,HA还可以提供虚拟的计算机别名供客户端访问。对于数据库服务,当有主服务器出现故障时,另外一台服务器就会自动接管,同时启动数据库和应用程序,使用户数据库可以正常操作。 RoseHA主要功能特点 ●简洁直观的管理方式 RoseHA提供了友好直观的图形安装界面和监控管理界面。通过直观而又方便的Java Applet管理界面,用户可以交互式地对集群系统进行配置、监控和管理,并可以利用Applet的网络特性,通过网络对系统进行远程管理,实时地显示出主机系统及服务的状态。

VmWare安装步骤

Windows XP下使用VMWare安装Fedora8(FC8)及VMWare Tools全过程图解 来源:popo's blog ,Author: popo xyz 亲身体会 一.VMWare下Fedora Core 8(FC8)安装过程完整图解. 首先准备Fedora8 32位ISO镜像安装文件(DVD或CD版均可,我采用的DVD版本),另外当然要有VMWare了,我采用的 是VMWare Workstation 6.02 build-59824.废话少说,看图解. 1.VMWare菜单”File”-”New”-”Virtual Machine”,下一步.选择”Custom”,自定义.下一步 2.选择虚拟机的版本

3.选linux,other linux 2.6.x kernel,别选错了64位版本 4.虚拟机名字,虚拟机文件存放路径.

5.处理器个数,我双核的,所以选了2个,当然选一个也可以. 6.物理内存使用限制,我2G内存,所以设定了900M左右,可根据个人情况,自己决定.建议设置大点,不然FC8安装过程可能 比较慢. 7.虚拟机和物理主机的联网方式,我选择的第一个,桥接,第二个是NAT,第三个host-only,具体选择根据网络环境和个人喜好.

8.选择虚拟硬盘的接口类型,SCSI-LSI 9.创建一个新的虚拟硬盘.

10.设置磁盘大小,建议6G以上.两个复选框,,第一个是立即分配磁盘空间,建议不选,(就是说立即把你硬盘上的6G空间划分 出来,如果不选,则随着数据的写入慢慢增大),第二个是针对非NTFS格式的分区,把文件划分为2G一个.根据个人情况. 11.虚拟磁盘文件名,完成创建.

双机热备环境安装步骤

Pluswell配置说明 二、硬件环境检查 1、查看整个局域网内是否有与双机环境提供的虚拟IP和服务名存在 冲突 2、磁盘阵列柜的电源是否打开 3、RAID 是否完成 4、控制卡是否安装且工作正常 5、磁盘阵列柜连接主、备服务器的线缆是否牢固 6、主、备服务器的系统磁盘管理中是否找到磁盘阵列柜 7、磁盘阵列柜在主服务器和备用服务器中的驱动器号要求一致(注 意:不可将磁盘分区标记为活动的) 8、主、备服务器TCP/IP心跳线是否连接正常且测试通过(可以互 ping) 9、检查磁盘阵列的配置,如查看各逻辑盘,确定好安装数据库Data 的盘符。 三、双机服务器操作系统安装及注意事项 1、先安装双机中的第一台服务器的操作系统(Windows Server2003 标 准版 X64 +Sp2)。 1) 注意安装服务器操作系统时,该服务器的引导盘信息需与 所安装的操作系统相匹配,即在引导盘中能够找到该操作 系统。 2)安装时注意先检查本机的磁盘号与第一台安装好的磁盘号是否一致(必须一致,否则配置双机时,会导致双机切换不成 功),如:第一台安装时磁盘0给了本机磁盘,磁盘1给了磁盘 阵列柜,那么此时在开机自检时需注意观察本机有多少个磁盘 号,是否与第一台机器相匹配,如果不匹配的情况一般有两 种:

a) 本机磁盘未做RAID1,所以有多个磁盘号。 b) 本机磁盘未做RAID1,而且又没配有RAID卡的情况下。 2、两台服务器操作系统安装完毕后,主、备服务器上都可以操作磁盘 阵列(注:主、备服务器不能同时去读写阵列柜上的文件、数据 等) 4、数据库软件安装配置 1. 关闭备服务器,只保持主服务器在开机的状态下进行数据库 的安装 2. 双机中安装数据的注意事项 1) 数据文件的路径必须在阵列柜上的同一个目录下; 2) 程序文件必须安装在本地磁盘上; 3) 服务(server、agent)启动模式必须设置成手动停止,用户 帐号必须为本地系统帐户; 4) 安装完第一台服务器的数据库系统后要保证: a) SQLSERVER和SQLSERVERAGENT服务处于停止状 态 b) 把磁盘阵列柜(卷锁)上第一次建立的数据文件夹改 名或删除。 5) 安装第二台数据库的方法、路径必须与第一台保持一致 6) 安装完数据库后,还要在每台服务器上安装相关的数据库 补丁,如安装补丁SP4。 5、双机软件安装配置 a) 以administrator用户逐台安装两台服务器的pluswell软件。 b) 保证双机的Administrator用户的密码一致。 c) 进行pluswell软件的配置 i. 进行心跳线的配置

VMware虚拟机安装过程

VMware虚拟机安装过程 安装介绍: VMware Workstation虚拟机是一个在Windows或Linux计算机上运行的应用程序,它可以模拟一个基于x86的标准PC环境。这个环境和真实的计算机一样,都有芯片组、CPU、内存、显卡、声卡、网卡、软驱、硬盘、光驱、串口、并口、USB控制器、SCSI控制器等设备,提供这个应用程序的窗口就是虚拟机的显示器。 在使用上,这台虚拟机和真正的物理主机没有太大的区别,都需要分区、格式化、安装操作系统、安装应用程序和软件,总之,一切操作都跟一台真正的计算机一样。 安装过程 下面通过例子,介绍使用VMware Workstation创建虚拟机的方法与步骤。 1.运行VMware Workstation 6,单击“File→New→Virtual Machine”命令,进入创建虚拟机向导,或者直接按“Crtl+N”快捷键同样进入创建虚拟机向导。 2.在弹出的欢迎页中单击“下一步”按钮。 3.在“Virtual machine configuration”选项区域内选择“Custom”单选按钮。 4.在Choose the Virtual Machine Hardware Compatibility页中,选择虚拟机的硬件格式,可以在Hardware compatibility下拉列表框中,在VMware Workstation 6、VMware Workstation 5或VMware Workstation 4三者之间进行选择。通常情况下选择Workstation 6的格式,因为新的虚拟机硬件格式支持更多的功能,选择好后单击“下一步”按钮。 5.在Select a Guest Operating System对话框中,选择要创建虚拟机类型及要运行的操作系统,这里选择Windows 2000 Professional操作系统,单击“下一步”按钮。 6.在Name the Virtual Machine对话框中,为新建的虚拟机命名并且选择它的保存路径。 7.在Processors选项区域中选择虚拟机中CPU的数量,如果选择Two,主机需要有两个CPU或者是超线程的CPU。 8.在Memory for the Virtual Machine页中,设置虚拟机使用的内存,通常情况下,对于Windows 98及其以下的系统,可以设置64MB;对于Windows 2000/XP,最少可以设置96MB;对于Windows 2003,最低为128MB;对于Windows Vista虚拟机,最低512MB。 9.在Network Type页中选择虚拟机网卡的“联网类型” 选择第一项,使用桥接网卡(VMnet0虚拟网卡),表示当前虚拟机与主机(指运行VMware Workstation软件的计算机)在同一个网络中。 选择第二项,使用NAT网卡(VMnet8虚拟网卡),表示虚拟机通过主机单向访问主机及主机之外的网络,主机之外的网络中的计算机,不能访问该虚拟机。 选择第三项,只使用本地网络(VMnet1虚拟网卡),表示虚拟机只能访问主机及所有使用VMnet1虚拟网卡的虚拟机。主机之外的网络中的计算机不能访问该虚拟机,也不能被该虚拟机所访问。 选择第四项,没有网络连接,表明该虚拟机与主机没有网络连接。 10.在Select I/O Adapter Type页中,选择虚拟机的SCSI卡的型号,通常选择默认值即可。

Oracle11gServHACluster双机热备配置实战

Oracle 11g共享存储双机热备配置手册 本文介绍通过ServHA Cluster配置Oracle共享磁盘阵列双机容错集群。 集群软件下载地址: 主要步骤: 一、防火墙配置。 二、安装Oracle 11g。 三、配置监听器。 四、配置Oracle 11g实例。 五、修改Oracle 11g控制文件。 六、安装并配置ServHA Cluster。 注意事项: 一、O racle配置双机集群方案要求两机都安装Oracle,其中Oracle主服务安装在本机磁 盘内(非共享盘内),数据库实例安装在共享盘内。 二、安装Oracle实例时,请确保对机共享盘处于离线状态并且数据库服务处于停止状 态。 三、两机的Oracle安装配置必须完全相同,例如:实例名,监听器名称,权限,密码。 四、当一台服务器完成所有操作后(包括安装Oracle主服务,配置监听器,实例安装), 停止本机的Oracle服务,并在对机同样也安装一遍,然后修改控制文件(步骤五)。 防火墙配置 此步骤目的为让ServHA Cluster 工作所必须的端口不受防火墙的拦截,不同操作系统防火墙配置方式不同,但基本思想是相同的,在双机软件通信的过程中,如果没有进行设置,防火墙会阻止ServHA Cluster的通信,使双机集群工作异常。 MicroColor ServHA Cluster在配置的过程中主要需要设置的防火墙例外: 1.18562端口:此端口为“ServHA 配置监控端”的连入端口,如不将此端口设置为 防火墙例外端口,“ServHA 配置监控端”将无法连入集群,如果您修改过ServHA Cluster 的“配置端连入端口号”,请将例外设置为修改过的“配置端连入端口号”;同时,针对该端口的例外IP您可以设置为常用来管理集群的客户计算机IP地址。 2.15538端口:此端口为集群双机相互通信的端口,如不将此端口设置为防火墙例外 端口,ServHA Cluster将无法正常工作,如果您修改过ServHA Cluster的“全局TCP/IP 端口”,请将例外设置为修改过的“全局TCP/IP端口”;同时,针对该端口的例外IP设置为对机的IP地址即可。 注:上述操作在双机均需要执行。

虚拟机windows下oracle双机安装文档

写在前面的话: 本文档配置环境为:vmware server 1.0.6 阵列柜,使用freenas操作系统来代替操作系统为windows2003企业版,Oracle版本为9.2.0.0 由于各个软件环境版本的不同,可能会出现个别步骤的差别 虚拟机windows下oracle双机安装文档 1.安装虚拟机软件,配置两台windows虚拟机,在两台虚拟机上安装企业版的windows 2003 1>安装虚拟机软件,不详述 2>配置两台windows虚拟机,分别为node1和node2配置完成后,分别对两台虚拟机 添加一块新网卡。此时两台虚拟机各有两块网卡,一块为公有网卡对外提供服务, 一块为私有网卡双机时配置心跳使用。 3>在两台虚拟机上安装windows 2003,并打最新补丁,不详述 至此,配置双机的系统级准备工作完成! 2.配置ip地址和域服务器 1>打开两台虚拟机,进入windows2003,进行ip地址配置 Node1上 将本地连接的ip地址设为192.168.40.27 本地连接2的ip地址设为10.10.10.11 Node2上 将本地连接的ip地址设为192.168.40.52 本地连接2的ip地址设为10.10.10.28 2> 为群集设置管理用户, 开启node1,node2, 设置群集用户帐户 单击“开始”,指向“所有程序”,指向“管理工具”,然后单击“计算机管理”。 下拉本地用户和组,右击“用户”,指向“新建”,然后单击“用户”。 键入用户名称等信息,将密码设置设定为“用户不能更改密码”和“密码永不过期”。 如下方图所示,然后单击“创建”。

在“用户”的右窗格中,右击“cluster 用户名”,然后在快捷菜单上单击“属性”。单击“隶属于选择高级按钮,点击立即查找,找到管理员组。 单击“管理员组”,然后单击“确定”。这将给予新用户帐户在该计算机上的管理特权。

双机热备原理及安装

双机热备原理及安装 一、双机热备原理 1.1.简述 双机热备份技术是一种软硬件结合的较高容错应用方案。该方案是由两台服务器系统和一个外接共享磁盘阵列柜(也可没有,而是在各自的服务器中采取RAID卡)及相应的双机热备份软件组成。 在这个容错方案中,操作系统和应用程序安装在两台服务器的本地系统盘上,整个网络系统的数据是通过磁盘阵列集中管理和数据备份的。数据集中管理是通过双机热备份系统,将所有站点的数据直接从中央存储设备读取和存储,并由专业人员进行管理,极大地保护了数据的安全性和保密性。用户的数据存放在外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。 双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“心跳”,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件认为主机系统发生故障,主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机热备份方案中,根据两台服务器的工作方式可以有三种不同的工作模式,即:双机热备模式、双机互备模式和双机双工模式。 双机热备模式即目前通常所说的active/standby 方式,active服务器处于工作状态;而standby 服务器处于监控准备状态,服务器数据包括数据库数据同时往两台或多台服务器写入(通常各服务器采用RAID磁盘阵列卡),保证数据的即时同步。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。典型应用在证券资金服务器或行情服务器。这是目前采用较多的一种模式,但由于另外一台服务器长期处于后备的状态,从计算资源方面考量,就存在一定

AIX+HA+双机互备ORACLE

步骤简述 1:安装AIX操作系统 2:安装ORACLE和HA的基础软件 3:升级操作系统 4:安装HA软件 5:打HA补丁 6:重启 7:主机名 8:IP 9:vi /etc/hosts --所有的NODENAME和HOSTNAME都要用小写 TOP ########################################3 10:创建集群CLUSTER 11:添加节点ADD NODE 12:discover 抓取节点信息,创建心跳磁盘 --这个如果正确抓取就会有百分比出现 --smit mkvg创建心跳磁盘 13:创建网络TCP/IP,和心跳网络 14:添加网络接口,和心跳接口 #################### 这里就可以同步一次验证一下,并且启动HA,使server_ip 15. 创建Resource ,SERVER_IP,APP,SCRIPTS 这时候要验证你的开机和关机启动脚本 16: 创建资源组RG A.Rg运行在哪些节点上 B.节点优先级顺序 C.Rg启动策略 D.切换策略 E.回切策略 17:修改资源组属性,将资源加入到资源组 18:检查配置是否正确 19:同步到其他节点 20:启动集群服务 21:测试

HA ORACLE 双机互备 1:首先配置IP,2边数据软件安装结构一致 # ifconfig -a en0: flags=1e080863,c0 inet 192.168.1.206 netmask 0xffffff00 broadcast 192.168.1.255 tcp_sendspace 131072 tcp_recvspace 65536 rfc1323 0 en1: flags=1e080863,c0 inet 10.10.10.206 netmask 0xffffff00 broadcast 10.10.10.255 inet 172.16.0.68 netmask 0xffffff00 broadcast 172.16.0.255 inet 172.16.0.206 netmask 0xffffff00 broadcast 172.16.0.255 tcp_sendspace 131072 tcp_recvspace 65536 rfc1323 0 lo0: flags=e08084b,c0 inet 127.0.0.1 netmask 0xff000000 broadcast 127.255.255.255 inet6 ::1%1/0 tcp_sendspace 131072 tcp_recvspace 131072 rfc1323 1 2:查看/etc/hosts文件,2边要求一致 192.168.1.206 aix206_boot1 10.10.10.206 aix206_boot2 172.16.0.206 aix206 192.168.1.208 aix208_boot1 10.10.10.208 aix208_boot2 172.16.0.208 aix208 172.16.0.68 srvyssh 172.16.0.86 srvcinms

一个双机热备方案的实施步骤

一个双机热备方案的实施步骤 -IBM xSeries 250服务器和exp 300磁盘柜+Windows 2000 advanced server配置双机热备 一硬件需要: 1. IBM X-Series服务器两台,要求两台硬件配置相同 2. 外置磁盘扩展柜一台,EXP300. 3. ServeRaid 4系列的阵列卡两块(4L,4M,4H) 4. 外置SCSI电缆两条(P/N: 03K9195) 5. 网络适配卡四块(主机服务器上各一块。千兆光纤网卡各一块) 二软件需要: 1.IBM ServeRAID Cluster Solution(v4.50) ftp://https://www.wendangku.net/doc/4318877817.html,/pub/pccbbs/pc_servers/24p2807.exe (已经制作成软盘) 2.IBM ServerGuide Setup and Installation CD(版本大于6.30) 此软件随机赠送 3.IBM ServeRAID Manager(v 4.50) ftp://https://www.wendangku.net/doc/4318877817.html,/pub/pccbbs/pc_servers/24p2815.exe 4.IBM ServeRAID Device Drivers(v4.50) ftp://https://www.wendangku.net/doc/4318877817.html,/pub/pccbbs/pc_servers/24p2810.exe

5.Windows 2000 Advanced Server CD 安装Cluster,客户需要购买两套Windows2000 advanced Server 6.其他相关的软盘(例如网卡驱动等会随选件购买而带) 三硬件安装步骤: 1.连接好主机,键盘,鼠标,显示器 2.分别插入主机和磁盘扩展柜的硬盘 3.打开主机箱盖,依次插入ServeRaid卡和网络适配卡 4.用SCSI电缆(03K9195)将每一台主机的ServeRaid卡和磁盘扩展柜后端接口相连 5.将每台主机中一块网卡用直连线连接 6.将每台主机中的另一块网卡和网络连接 7.接好主机的磁盘扩展柜的电源 四软件安装步骤: 1.首先分别在两台服务器上安装Windows2000 advanced server, 安装细节: (注意:在安装过程中磁盘阵列柜断电) a.将windows安装光盘放入cdrom,从光盘启动服务器 b.为服务器分区C 盘分8G,用NTFS格式格式化分区。 c.服务器分别起计算机名为:NODE1(作为主服务器)和NODE2

相关文档
相关文档 最新文档