文档库 最新最全的文档下载
当前位置:文档库 › EqualLogic负载均衡和分层技术最佳实践

EqualLogic负载均衡和分层技术最佳实践

F5负载均衡器双机切换机制及配置

F5负载均衡器双机切换触发机制及配置 1 F5双机的切换触发机制 1.1 F5双机的通信机制 F5负载均衡器的主备机之间的心跳信息可以通过以下两种方式进行交互: ●通过F5 failover 串口线交换心跳信息(电压信号不断地由一方送到另外一方) 处于Standby的系统不断监控Failover上的电平,一旦发现电平降低,Standby Unit会立即变成Active,会发生切换(Failover)。通过串口监控电平信号引起的切换可以在 一秒中以内完成(大概200~300ms)。四层交换机在系统启动的时候也会监控Failover 线缆的电平以决定系统是处于Active状态还是Standby状态。在串口Failover线缆上不传输任何数据信息。 ●Failover线缆也可以不采用串口线,而直接采用网络线。(但F5不建议这样做, 因为网络层故障就可能会两台负载均衡器都处于Active状态)。如果采用网络层监控实现Failover, Bigip将通过1027与1028端口交换心跳信息。 经验证明:两台F5之间一定要用failover cable连接起来,不连接failover cable而直接采用网络线连接在一起不可靠,而且造成了网上事故。 F5双机之间的数据信息是通过网络来完成的。因此运行于HA方式的两台F5设备在网络层必须是相通的。(可以用网线将两台F5设备直接相连起来,也可以通过其它的二层设备将两台F5设备相连,使F5设备在网络上可以连通对端的Failover IP地址)。 两台运行于HA方式的四层交换机之间通过网络层交互的信息主要包括: ●用于配置同步的信息:通过手工执行config sync会引起Active到Standby系 统的配置信息传输。 ●用于在发生Failover时连接维持的信息:如果设置了Connection Mirroring, 处于Active的四层交换机会将连接表每十秒中发送一次到Standby的系统。(The following TCP Connections can be mirrored:TCP、UDP、SNAT、FTP、Telnet )。 如果设置了Stateful Failover,Persistence信息也会被发送到Standby系统。(The following persistence information for the virtual servers (VIPs) can be mirrored:SSL persistence、Sticky persistence、iRules Persistence )

负载均衡技术

负载均衡技术 现在网络中常见的的负载均衡主要分为两种:一种是通过硬件来进行,常见的硬件有比较昂贵的NetScaler、F5、Radware和Array等商用的负载均衡器,也有类似于LVS、Nginx、HAproxy的基于Linux的开 源的负载均衡策略, 商用负载均衡里面NetScaler从效果上比F5的效率上更高。对于负载均衡 器来说,不过商用负载均衡由于可以建立在四~七层协议之上,因此适用面更 广所以有其不可替代性,他的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用。 另一种负载均衡的方式是通过软件:比较常见的有LVS、Nginx、HAproxy 等,其中LVS是建立在四层协议上面的,而另外Nginx和HAproxy是建立在七 层协议之上的,下面分别介绍关于 LVS:使用集群技术和Linux操作系统实现一个高性能、高可用的服务器,它具有很好的可伸缩性(Scalability)、可靠性(Reliability)和可管理性(Manageability)。 LVS的特点是: 1、抗负载能力强、是工作在网络4层之上仅作分发之用,没有流量的产生; 2、配置性比较低,这是一个缺点也是一个优点,因为没有可太多配置的东西,所以并不需要太多接触,大大减少了人为出错的几率; 3、工作稳定,自身有完整的双机热备方案;

4、无流量,保证了均衡器IO的性能不会收到大流量的影响; 5、应用范围比较广,可以对所有应用做负载均衡; 6、LVS需要向IDC多申请一个IP来做Visual IP,因此需要一定的网络知识,所以对操作人的要求比较高。 Nginx的特点是: 1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构; 2、Nginx对网络的依赖比较小; 3、Nginx安装和配置比较简单,测试起来比较方便; 4、也可以承担高的负载压力且稳定,一般能支撑超过1万次的并发; 5、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持url来检测; 6、Nginx对请求的异步处理可以帮助节点服务器减轻负载; 7、Nginx能支持http和Email,这样就在适用范围上面小很多; 8、不支持Session的保持、对Big request header的支持不是很好,另外默认的只有Round-robin和IP-hash两种负载均衡算法。 HAProxy的特点是:

负载均衡技术综述

?2004 Journal of Software 软件学报 负载均衡技术综述* 殷玮玮1+ 1(南京大学软件学院,江苏南京210093) Overview of Load Balancing Technology YIN Wei-Wei1+ 1(Department of Software Institute, Nanjing University, Nanjing 210093, China) + Corresponding author: Phn +86-**-****-****, Fax +86-**-****-****, E-mail: bingyu0046@https://www.wendangku.net/doc/4812173319.html,, https://www.wendangku.net/doc/4812173319.html, Received 2000-00-00; Accepted 2000-00-00 Yin WW. Overview of Load Balancing Technology. Journal of Software, 2004,15(1):0000~0000. https://www.wendangku.net/doc/4812173319.html,/1000-9825/15/0000.htm Abstract: Load balance technology based on existing network structure, provides a cheap and efficient method for expanding bandwidth of the server and increase the server throughput, strengthens network data processing ability, increases network flexibility and availability. This paper introduces in detail the three aspects: the classification of load balancing, load balancing and load balancing algorithm, then compares the load balancing algorithm commonly used and their advantages and disadvantages, and describes the dynamic load balancing strat egy and three kinds of scheduling methods. Key words: load balancing technology; the load conditions; the static load balancing algorithm; the dynamic load balancing algorithm 摘要: 负载均衡技术基于现有网络结构,提供了一种扩展服务器带宽和增加服务器吞吐量的廉价有效的方法,加强了网络数据处理能力,提高了网络的灵活性和可用性。本文从负载均衡技术的分类、负载均衡技术和负载均衡算法三个方面对负载均衡做了详细介绍,对常用负载均衡算法做了优缺点比较,并对动态负载均衡算法遵循的策略和三种调度方式做了阐述。 关键词: 负载均衡技术; 负载状况;静态负载均衡算法;动态负载均衡算法 中图法分类号: ****文献标识码: A 随着大规模并行分布处理系统,特别是网络工作站机群系统的广泛应用,如何采取有效的调度策略来平衡各结点(机)的负载,从而提高整个系统资源的利用率,已成为人们的研究热点。负载均衡技术基于现有网络结构,提供了一种扩展服务器带宽和增加服务器吞吐量的廉价有效的方法,加强了网络数据处理能力,提高了网络的灵活性和可用性。负载均衡的应用,能够有效地解决网络拥塞问题,能够就近提供服务,实现地理位置无关性(异地负载均衡)。同时,这项技术还能提高服务器的响应速度,提高服务器及其它资源的利用 *Supported by the **** Foundation of China under Grant No.****, **** (基金中文完整名称); the **** Foundation of China under Grant No.****, **** (基金中文完整名称) 作者简介: 殷玮玮(1992-),女,河南舞阳人,硕士,主要研究领域为分布式计算,负载均衡.

负载均衡在Web服务器中的应用

负载均衡在Web服务器中的应用 随着互联网的迅速发展,互联网为社会网络迅猛发展提供了“天时”,宽带服务的普及,视频服务、FTP下载、数据库查询应用服务器工作量的日益增加,负载均衡技术的应用更加广泛。阐述了负载均衡技术的分类和重点介绍了服务器集群负载均衡技术及应用。 标签:互联网;负载均衡;服务器集群 引言 随着互联网技术的发展,宽带服务的普及,视频服务、FTP 下载、数据库查询等大数据量的Web 应用逐渐由可能演变成一种趋势,这些应用对Web 服务器的性能有较高要求。伴随着信息系统的各个核心业务量的增加和数据流量的快速增长,从而造成服务质量下降。在花费相同条件下,必须采用多台服务器协同工作,防止计算机的单点故障、性能不足等问题,以满足不断增加业务量的需求,提高计算机系统的处理能力和更有效解决负载均衡问题。 1 负载均衡概述 负载均衡是在现有网络结构上进行部署,来扩展网络设备和服务器的带宽、增加吞吐量,提高网络数据处理能力。从而根据负载压力通过某种算法合理分配资源,保证计算机高可靠性和高性能计算。 负载均衡其特点是充分利用网络中计算机的资源,实现多台节点设备上做并行处理。当网络中的一台或者几台服务器出现故障时,自动切换到其他服务器上,客户端会自动重试发生故障的连接,仅几秒的延迟就能选择性能最佳的服务器响应客户请求。保证用户访问的质量可靠性;同时根据算法将负载合理分配到多台节点设备上进行处理,减少用户等待响应时间和提高系统处理能力。 2 常用的四种负载均衡技术 2.1 软/硬件负载均衡 软件负载均衡是在一台或多台服务器操作系统上安装一个或多个软件来实现负载均衡,比如DNS负载均衡等。软件负载均衡的优点是容易进行相关配置、成本比较低,就能满足要求不高的负载均衡需求。 硬件负载均衡是在服务器和外部网络之间加装负载均衡器,通过负载均衡器完成专门的任务,它独立于服务器的操作系统,大大提高了服务器的整体性能。由于负载均衡器具有多样化的策略管理方法,同时能进行智能化的流量管控,使得负载均衡达到最佳状态。所以,硬件负载均衡的性能比软件负载均衡性能更胜一筹,但是投资成本相对比较高。

SureHA 技术白皮书

SureHA100G2 技术白皮书 摘要 本白皮书论述Lenovo SureHA 100G2高可 用软件的功能以及实现原理。 Lenovo 确信本出版物在发布之日内容准确无 误。如有更新,恕不另行通知。 Lenovo 对本出版物的内容不提供任何形式的 陈述或担保,明确拒绝对有特定目的适销性或 适用性进行默示担保。使用、复制或分发本出 版物所描述的任何SureHA 100G2软件都要 有相应的软件许可证。

第 1 章 SureHA100G2集群系统概览 2 目录 SureHA100G2 技术白皮书 .................................................................................................. 1 第 1 章 何谓集群系统 ..................................................................................................... 4 集群系统的概要 ................................................................................................................................... 4 HA (High Availability)集群 ................................................................................................................ 4 共享磁盘型 ....................................................................................................................................................... 5 镜像磁盘型 ....................................................................................................................................................... 7 系统构成 .............................................................................................................................................. 7 故障保护原理 ..................................................................................................................................... 10 共享磁盘的互斥控制 ....................................................................................................................................... 11 网络分区症状 (Split-brain-syndrome) ......................................................................................................... 11 集群资源的交接 ................................................................................................................................. 11 数据的交接 ..................................................................................................................................................... 11 IP 地址的交接 .................................................................................................................................................. 12 应用程序的交接 .............................................................................................................................................. 12 失效切换总结 .................................................................................................................................................. 14 Single Point of Failure 的排除 ......................................................................................................... 14 共享磁盘 ......................................................................................................................................................... 15 共享磁盘的访问路径 ....................................................................................................................................... 16 LAN ................................................................................................................................................................ 16 支持可用性的操作 ............................................................................................................................. 17 操作前测试 ..................................................................................................................................................... 17 故障的监视 ..................................................................................................................................................... 17 第 2 章 关于SureHA100G2......................................................................................... 19 SureHA100G2的产品结构 ................................................................................................................ 19 SureHA100G2的软件配置 ................................................................................................................ 19 SureHA100G2 的故障监视原理 ....................................................................................................... 20 何谓服务器监视 .............................................................................................................................................. 20 何谓业务监视 .................................................................................................................................................. 20 何谓内部监视 .................................................................................................................................................. 21 可监视的故障和无法监视的故障 ........................................................................................................ 21 通过服务器监视可以查出的故障和无法查出的故障 ........................................................................................ 21 通过业务监视可以查出的故障和无法查出的故障 ............................................................................................ 21 网络分区解析 ..................................................................................................................................... 22 失效切换的原理 ................................................................................................................................. 22 由SureHA100G2构建的共享磁盘型集群的硬件配置 ...................................................................................... 23 用SureHA100G2构建的镜像磁盘型集群的硬件配置 .. (24)

服务器负载均衡技术

HUAWEI USG6000V系列NFV防火墙技术白皮书之---服务器负载均衡技术白皮书 华为技术有限公司 Huawei Technologies Co., Ltd.

目录 1背景和概述 (2) 2全局服务器负载均衡(GSLB) (3) 3本地服务器负载均衡(LSLB) (4) 3.1使用目的MAC地址转换的服务器负载均衡(DR) (4) 3.2使用网络地址转换实现的服务器负载均衡(L4 SLB) (5) 3.3使用轻量代理和网络地址转换的服务器负载均衡(L4 lwProxy SLB) (7) 3.4使用全量Socket 代理的服务器负载均衡(L7 Socket Proxy SLB) (9) 3.4.1socket代理加业务会话关联保持 (9) 3.4.2根据URL类型不同的分担,静态资源访问和动态计算访问分开多种服务 器10 3.4.3SSL卸载 (10) 3.4.4链路优化:压缩、协议优化、本地cache、多路复用 (11) 3.5业务保持技术 (13) 4华为USG防火墙支持的SLB功能列表 (14)

1 背景和概述 随着互联网的快速发展,用户访问量的快速增长,使得单一的服务器性能已经无法满足大量用户的访问,企业开始通过部署多台服务器来解决性能的问题,由此就产生了服务器负载均衡的相关技术方案。 在实际的服务器负载均衡应用中,由于需要均衡的业务种类以及实际服务器部署场景的不同(比如是否跨地域、跨ISP数据中心等),存在多种负载均衡的技术。如下典型的组网方式如图所示: 服务提供方为了支撑大批量的用户访问,以及跨不同地域、不同接入ISP的用户都能够获得高质量的业务访问体验,其已经在不同地域、不同ISP数据中心搭建了服务器,这样就带来一个需求,也就是客户的访问能够就近、优先选择同一个ISP数据中心的服务器,从而获得高质量的业务访问体验。 同时,基于单台服务器能够提供的业务访问并发是有限的,那么就自然想到使用多台服务器来形成一个“集群”,对外展现出一个业务访问服务器,以满足大量用户访问、而且可以根据业务访问量的上升可以动态的进行业务能力扩容的需要。

基于Nginx的Session-sticky技术的软件负载均衡方案原理和实施步骤v1.0-20130929

基于Nginx的Session-sticky技术的软件负载均衡方案原理和实施步骤 [一]、综述 (1)实现原理:用户请求到nginx,基于nginx的nginx-sticky-module模块的session sticky(会话粘滞)实现后端应用服务器的路由选择,再将用户请求提交到后端的tomcat/weblogic/websphere 应用处理并逆向反馈响应。 (2)技术选型: Nginx+ nginx-sticky-module+J2EE中间件(容器)。 (3)应用场景: 本解决方案是基于浏览器的Cookie机制,通过nginx的反向代理机制,将浏览器与后端应用服务器的访问映射关系,作为前端请求转发到实现某个会话内所有用户的请求都访问当相同的后端服务器。 [二]、安装步骤 创建www用户和组,以及主机需要的目录,日志目录 groupadd www useradd -g www www 一、依赖的程序 1. gzip module requires zlib library 2. rewrite module requires pcre library 3. ssl support requires openssl library 二、依赖的程序的安装的方法 1、zlib 现在最新的版本是zlib-1.2.5 官网下载地址:https://www.wendangku.net/doc/4812173319.html,/zlib-1.2.5.tar.gz $tar -xvzf zlib-1.2.5.tar.gz 2、 pcre现在的最新版本是pcre-8.02.tar.gz 官网下载地址:ftp://https://www.wendangku.net/doc/4812173319.html,/pub/software/programming/pcre/pcre- 8.02.tar.gz $tar -xvzf pcre-8.02.tar.gz $cd pcre-8.02 $./configure --prefix=/usr/local/pcre --enable-utf8 --enable-unicode-properties $ make && make install 3、openssl现在最新版本是openssl-1.0.0a.tar.gz 官网下载地址:https://www.wendangku.net/doc/4812173319.html,/source/openssl-1.0.0a.tar.gz $tar zvxf openssl-1.0.0.tar.gz $cd openssl-1.0.0 $./config --prefix=/usr/local/ssl-1.0.0 shared zlib-dynamic enable-camellia $make && make install 4、安装Nginx 1.0.0,这种方法./configure 要带很多参数,大家要注意。 官网下载地址:https://www.wendangku.net/doc/4812173319.html,/ $tar zvxf Nginx 1.0.0.tar.gz $cd Nginx 1.0.0 $./configure --prefix=/usr/local/nginx --with-http_gzip_static_module

几种负载均衡算法

几种负载均衡算法 本地流量管理技术主要有以下几种负载均衡算法: 静态负载均衡算法包括:轮询,比率,优先权 动态负载均衡算法包括: 最少连接数,最快响应速度,观察方法,预测法,动态性能分配,动态服务器补充,服务质量,服务类型,规则模式。 静态负载均衡算法 ◆轮询(Round Robin):顺序循环将请求一次顺序循环地连接每个服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从顺序循环队列中拿出,不参加下一次的轮询,直到其恢复正常。 ◆比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,把用户的请求分配到每个服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配, 直到其恢复正常。 ◆优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG-IP 用户的请求,分配给优先级最高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求);当最高优先级中所有服务器出现故障,BIG-IP 才将请求送给次优先级的服务器组。这种方式,实际为用户提供一种热备份的方式。 动态负载均衡算法 ◆最少的连接方式(Least Connection):传递新的连接给那些进行最少连接处理的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配, 直到其恢复正常。 ◆最快模式(Fastest):传递连接给那些响应最快的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。 ◆观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依据为新的请求选择服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。 ◆预测模式(Predictive):BIG-IP利用收集到的服务器当前的性能指标,进行预测分析,选择一台服务器在下一个时间片内,其性能将达到最佳的服务器相应用户的请求。(被BIG-IP 进行检测) ◆动态性能分配(Dynamic Ratio-APM):BIG-IP 收集到的应用程序和应用服务器的各项性能参数,动态调整流量分配。 ◆动态服务器补充(Dynamic Server Act.):当主服务器群中因故障导致数量减少时,动态地将备份服务器补充至主服务器群。 ◆服务质量(QoS):按不同的优先级对数据流进行分配。 ◆服务类型(ToS): 按不同的服务类型(在Type of Field中标识)负载均衡对数据流进行分配。 ◆规则模式:针对不同的数据流设置导向规则,用户可自行。 负载均衡对应本地的应用交换,大家可以通过对上述负载均衡算法的理解,结合实际的需求来采用合适你的负载均衡算法,我们常用到的一般是最少连接数、最快反应、或者轮询,决定选用那种算法,主要还是要结合实际的需求。

负载均衡技术的三种实现方法

目前,网络应用正全面向纵深发展,企业上网和政府上网初见成效。随着网络技术的发展,教育信息网络和远程教学网络等也得到普及,各地都相继建起了教育信息网络,带动了网络应用的发展。 一个面向社会的网站,尤其是金融、电信、教育和零售等方面的网站,每天上网的用户不计其数,并且可能都同时并发访问同一个服务器或同一个文件,这样就很容易产生信息传输阻塞现象;加上Internet线路的质量问题,也容易引起出 现数据堵塞的现象,使得人们不得不花很长时间去访问一个站点,还可能屡次看到某个站点“服务器太忙”,或频繁遭遇系统故障。因此,如何优化信息系统的性能,以提高整个信息系统的处理能力是人们普遍关心的问题。 一、负载均衡技术的引入 信息系统的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担,必须采用多台服务器协同工作,提高计算机系统的处理能力和计算强度,以满足当前业务量的需求。而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不会出现一台设备过忙、而其他的设备却没有充分发挥处理能力的情况。要解决这一问题,可以采用负载均衡的方法。 负载均衡有两个方面的含义:首先,把大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,再返回给用户,使得信息系统处理能力可以得到大幅度提高。 对一个网络的负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体情况进行分析。一般来说,企业信息系统的负载均衡大体上都从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。 二、链路聚合——低成本的解决方案 为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的方法连入网络。而网络中的业务量分布是不平衡的,一般表现为网络核心的业务量高,而边缘比较低,关键部门的业务量高,而普通部门低。伴随计算机处理能力的大幅度提高,人们对工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,因此延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作,像不小心踢掉网线的插头,就会让服务器与网络断开。 通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其满足目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型网络来说,采用网络系统升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级的解决方案就显得有些浪费

负载均衡技术:带过流保护的并行电源模块

Load-sharing techniques:Paralleling power modules with overcurrent protection Paralleling low-current, low-voltage power modules for high-current, low-voltage applications has many benefits.Among them are: redundancy for enhanced reliability, hot-swap capability, distributed heat removal, and design flexi-bility. Paralleling power stages requires load sharing in order to equalize the stresses among the modules. One method of load sharing, based upon the automatic master/slave architecture, is to use a dedicated controller, such as the UCC39002, to provide for equal current distribution of the load current among the parallel-connected power sup-plies. The power modules must be equipped with true remote-sense capability or an output-adjustment terminal.The output current of each module is measured and com-pared to a common load-share bus. The positive sense voltage or the voltage of the output voltage adjust pin of each module is adjusted to provide equal current sharing.Several modules are paralleled so that the entire assem-bly can support a full load much greater than an individual module would be capable of supplying. Due to manufactur-ing tolerances and component variations, startup delay times typically vary slightly from module to module. When the modules to be paralleled have an overcurrent protection circuit featuring constant current limit with automatic recovery, starting up fully enabled into the full system load does not pose a problem. Inevitably, one module will have Texas Instruments Incorporated Power Management By Lisa Dinwoodie (Email: lisa_dinwoodie@https://www.wendangku.net/doc/4812173319.html,) Power Applications Specialist a faster turn-on than the others. The eager module will carry as much of the load as it can, sometimes up to 140%of its individual current capacity, before its output voltage falters. Meanwhile, the next module will come up and con-tribute to the load. After a brief transition time, all of the modules will be up, the master will be recognized, and accurate load sharing will take place. When the modules to be paralleled have an overcurrent protection circuit featuring a hiccup mode, starting up fully enabled into full system load, regardless of the load sharing technique used, does pose a problem. The module with the fastest turn-on profile will come up into an overcurrent condition. Immediately, in an act of self-preservation, it will go into hiccup mode, alternately sinking and sourcing current. The next module to come up into the load will also fall into this hiccup mode, sinking current when the other module sources it. Because the load-share circuitry essentially adds a voltage loop to the output of each mod-ule, this hiccupping overcurrent protection mode will prevent loop closure. Simultaneously enabling the modules will prevent this hiccup mode from starting, and load shar-ing can be successfully achieved. Figure 1 shows a simple comparator circuit that will simultaneously enable two modules and can be expanded to accommodate more if needed. It assumes that the only

(完整版)F5服务器负载均衡解决方案要点

F5服务器负载均衡解决方案 目录 一.大量数据处理所面临的问题 (2) 1.目前存在隐患 (3) 2.应用系统问题综述 (3) 1)“峰值”问题 (4) 2)多米诺”现象 (4) 3)“N+1”方式 (4) 4)“扩展”不便 (5) 5)“免疫力”差 (5) 6)“容灾”.................................................................................... 错误!未定义书签。 7)应用与网络脱节 (6) 二.F5解决方案 (6) 2.1 网络结构 (6) 2.2 方案优势 (7) 2.2.1避免“不平衡”现象 (7) 2.2.2解决因“峰值堵塞”带来的性能调整“不平衡” (9) 2.2.3避免“多米诺”现象 (9) 2.2.4更好的提供系统容错,提高系统可靠性 (10) 2.2.5“扩展”灵活 (11) 2.2.6“免疫力”强 (12) 2.2.7“容灾” (13) 2.2.8网络感知应用,应用控制网络 (14) 三.相关技术资料 (17) BIG-IP提供支持99.999%的正常运行 (17) 四.成功案例 (19) F5为中国某税务机关提供高可用性解决方案 (19)

一.大量数据处理所面临的问题 在现今的企业中,不论是否提供关键性任务的服务,都需要一个持续运行不断的高可用性网络计算环境以维持不间断的高品质服务。所谓高可用性的环境,也是信息管理人员所必须考虑的四件事: 1.使数据有一个安全的存储和运作方式,即使在设备故障时仍能保持数据的完整 一致。 2.使服务器系统持续运行,即使发生故障仍然让服务持续下去。 3.使整个计算环境能更好的管理,如何容错、容灾、集群共享。 4.如何使投资有最好的效益,使系统有最佳的扩充能力,有最低的整体拥有成本, 也就是在任何情况之下均能确保数据的完整一致,系统持续运行,使服务不间 断,同时有最好的投资回报率。 高可用性被定义为计算系统的连续运行。根据故障停机的业务影响,应用系统需要不同的可用性水平。要想实现一个应用系统的高可用性,所有组件(包括应用和数据库服务器、存储设备以及端到端网络)都需要提供连续的服务。 企业和机构对网络化应用及Internet 的日益依赖,加上语音和数据的集成,创造了对高可用性应用的增加需求。任何类型的系统故障停机都可能意味着收入、信誉和客户满意的巨大损失。 高度网络可用性的利用,企业实施高可用性网络来: ?防止财务损失 ?防止生产力损失 ?改进用户满意度 ?改进客户满意/信任 ?降低反应性IT支持成本,提高IT生产力 ?部署关键任务应用支持新业务实践的好处 ?典型的业务要求 为了实现高度的网络可用性,需要部署下列组件:

相关文档