收藏 分享(赏)

基于Linux的负载均衡技术介绍.doc

上传人:hyngb9260 文档编号:7832590 上传时间:2019-05-27 格式:DOC 页数:7 大小:37.50KB
下载 相关 举报
基于Linux的负载均衡技术介绍.doc_第1页
第1页 / 共7页
基于Linux的负载均衡技术介绍.doc_第2页
第2页 / 共7页
基于Linux的负载均衡技术介绍.doc_第3页
第3页 / 共7页
基于Linux的负载均衡技术介绍.doc_第4页
第4页 / 共7页
基于Linux的负载均衡技术介绍.doc_第5页
第5页 / 共7页
点击查看更多>>
资源描述

1、当前,无论在企业网、园区网还是在广域网如 Internet 上,业务量的发展都超出了过去最乐观的估计,上网热潮风起云涌,新的应用层出不穷,即使按照当时最优配置建设的网络,也很快会感到吃不消。尤其是各个网络的核心部分,其数据流量和计算强度之大,使得单一设备根本无法承担,而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,就成了一个问题,负载均衡机制也因此应运而生。负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络

2、拥塞问题,服务就近提供,实现地理位置无关性;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。定义其实,负载均衡并非传统意义上的“均衡”,一般来说,它只是把有可能拥塞于一个地方的负载交给多个地方分担。如果将其改称为“负载分担”,也许更好懂一些。说得通俗一点,负载均衡在网络中的作用就像轮流值日制度,把任务分给大家来完成,以免让一个人累死累活。不过,这种意义上的均衡一般是静态的,也就是事先确定的“轮值”策略。与轮流值日制度不同的是,动态负载均衡通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理分配出去。结构上分为本地负载均

3、衡和地域负载均衡(全局负载均衡),前一种是指对本地的服务器集群做负载均衡,后一种是指对分别放置在不同的地理位置、在不同的网络及服务器群集之间作负载均衡。服务器群集中每个服务结点运行一个所需服务器程序的独立拷贝,诸如 Web、FTP、Telnet或 e-mail 服务器程序。对于某些服务(如运行在 Web 服务器上的那些服务)而言,程序的一个拷贝运行在群集内所有的主机上,而网络负载均衡则将工作负载在这些主机间进行分配。对于其他服务(例如 e-mail),只有一台主机处理工作负载,针对这些服务,网络负载均衡允许网络通讯量流到一个主机上,并在该主机发生故障时将通讯量移至其他主机。负载均衡技术实现结构

4、在现有网络结构之上,负载均衡提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性为用户提供更好的访问质量提高服务器响应速度提高服务器及其他资源的利用效率避免了网络关键部位出现单点失效广义上的负载均衡既可以设置专门的网关、负载均衡器,也可以通过一些专用软件与协议来实现。对一个网络的负载均衡应用,从网络的不同层次入手,根据网络瓶颈所在进行具体分析。从客户端应用为起点纵向分析,参考 OSI 的分层模型,我们把负载均衡技术的实现分为客户端负载均衡技术、应用服务器技术、高层协议交换、网络

5、接入协议交换等几种方式。负载均衡的层次基于客户端的负载均衡这种模式指的是在网络的客户端运行特定的程序,该程序通过定期或不定期的收集服务器群的运行参数:CPU 占用情况、磁盘 IO、内存等动态信息,再根据某种选择策略,找到可以提供服务的最佳服务器,将本地的应用请求发向它。如果负载信息采集程序发现服务器失效,则找到其他可替代的服务器作为服务选择。整个过程对于应用程序来说是完全透明的,所有的工作都在运行时处理。因此这也是一种动态的负载均衡技术。但这种技术存在通用性的问题。因为每一个客户端都要安装这个特殊的采集程序;并且,为了保证应用层的透明运行,需要针对每一个应用程序加以修改,通过动态链接库或者嵌入

6、的方法,将客户端的访问请求能够先经过采集程序再发往服务器,以重定向的过程进行。对于每一个应用几乎要对代码进行重新开发,工作量比较大。所以,这种技术仅在特殊的应用场合才使用到,比如在执行某些专有任务的时候,比较需要分布式的计算能力,对应用的开发没有太多要求。另外,在采用 JAVA 构架模型中,常常使用这种模式实现分布式的负载均衡,因为 java 应用都基于虚拟机进行,可以在应用层和虚拟机之间设计一个中间层,处理负载均衡的工作。应用服务器的负载均衡技术如果将客户端的负载均衡层移植到某一个中间平台,形成三层结构,则客户端应用可以不需要做特殊的修改,透明的通过中间层应用服务器将请求均衡到相应的服务结点

7、。比较常见的实现手段就是反向代理技术。使用反向代理服务器,可以将请求均匀转发给多台服务器,或者直接将缓存的数据返回客户端,这样的加速模式在一定程度上可以提升静态网页的访问速度,从而达到负载均衡的目的。使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能。然而它本身也存在一些问题,首先就是必须为每一种服务都专门开发一个反向代理服务器,这就不是一个轻松的任务。反向代理服务器本身虽然可以达到很高效率,但是针对每一次代理,代理服务器就必须维护两个连接,一个对外的连接,一个对内的连接,因此对于特别高的连接请求,代理服务器的负载也就非常之大。反向代理能够执行针对应用协议

8、而优化的负载均衡策略,每次仅访问最空闲的内部服务器来提供服务。但是随着并发连接数量的增加,代理服务器本身的负载也变得非常大,最后反向代理服务器本身会成为服务的瓶颈。基于域名系统的负载均衡NCSA 的可扩展 Web 是最早使用动态 DNS 轮询技术的 web 系统。在 DNS 中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。在很多知名的 web 站点都使用了这个技术:包括早期的 yahoo 站点、163 等。动态 DNS 轮询实现起来简单,无需复杂的配置和管理,一般支持bind8.2 以上的类 unix 系统都能够运

9、行,因此广为使用。DNS 负载均衡是一种简单而有效的方法,但是存在不少问题。首先域名服务器无法知道服务结点是否有效,如果服务结点失效,余名系统依然会将域名解析到该节点上,造成用户访问失效。其次,由于 DNS 的数据刷新时间 TTL(Time to LIVE)标志,一旦超过这个 TTL,其他 DNS服务器就需要和这个服务器交互,以重新获得地址数据,就有可能获得不同 IP 地址。因此为了使地址能随机分配,就应使 TTL 尽量短,不同地方的 DNS 服务器能更新对应的地址,达到随机获得地址。然而将 TTL 设置得过短,将使 DNS 流量大增,而造成额外的网络问题。最后,它不能区分服务器的差异,也不能

10、反映服务器的当前运行状态。当使用 DNS 负载均衡的时候,必须尽量保证不同的客户计算机能均匀获得不同的地址。例如,用户 A 可能只是浏览几个网页,而用户 B 可能进行着大量的下载,由于域名系统没有合适的负载策略,仅仅是简单的轮流均衡,很容易将用户 A 的请求发往负载轻的站点,而将 B 的请求发往负载已经很重的站点。因此,在动态平衡特性上,动态 DNS 轮询的效果并不理想。高层协议内容交换技术除了上述的几种负载均衡方式之外,还有在协议内部支持负载均衡能力的技术,即 URL 交换或七层交换,提供了一种对访问流量的高层控制方式。Web 内容交换技术检查所有的HTTP 报头,根据报头内的信息来执行负载

11、均衡的决策。例如可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务,常见的有 HTTP 协议中的重定向能力等。HTTP 运行于 TCP 连接的最高层。客户端通过恒定的端口号 80 的 TCP 服务直接连接到服务器,然后通过 TCP 连接向服务器端发送一个 HTTP 请求。协议交换根据内容策略来控制负载,而不是根据 TCP 端口号,所以不会造成访问流量的滞留。由于负载平衡设备要把进入的请求分配给多个服务器,因此,它只能在 TCP 连接时建立,且 HTTP 请求通过后才能确定如何进行负载的平衡。当一个网站的点击率达到每秒上百甚至上千次时,TCP 连接、HTTP 报头信息的分析以及进程的时

12、延已经变得很重要了,要尽一切可能提高这几各部份的性能。在 HTTP 请求和报头中有很多对负载平衡有用的信息。我们可以从这些信息中获知客户端所请求的 URL 和网页,利用这个信息,负载平衡设备就可以将所有的图像请求引导到一个图像服务器,或者根据 URL 的数据库查询内容调用 CGI 程序,将请求引导到一个专用的高性能数据库服务器。如果网络管理员熟悉内容交换技术,他可以根据 HTTP 报头的 cookie 字段来使用 Web 内容交换技术改善对特定客户的服务,如果能从 HTTP 请求中找到一些规律,还可以充分利用它作出各种决策。除了 TCP 连接表的问题外,如何查找合适的 HTTP 报头信息以及作

13、出负载平衡决策的过程,是影响 Web 内容交换技术性能的重要问题。如果 Web 服务器已经为图像服务、SSL 对话、数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。网络接入协议交换大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第 3、4 层交换机、负载均衡设备、缓冲服务器和 Web 服务器等。如何将这些技术设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。现在许多交换机提供第四层交换功能,对外提供一个一致的 IP 地址,并映射为多个内部 IP 地址,对每次 TCP 和 UDP 连接请求,根据其端口号,按照即定的策略动态选择

14、一个内部地址,将数据包转发到该地址上,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。由于地址转换相对来讲比较接近网络的低层,因此就有可能将它集成在硬件设备中,通常这样的硬件设备是局域网交换机。当前局域网交换机所谓的第四层交换技术,就是按照 IP 地址和 TCP 端口进行虚拟连接的交换,直接将数据包发送到目的计算机的相应端口。通过交换机将来自外部的初始连接请求,分别与内部的多个地址相联系,此后就能对这些已经建立的虚拟连接进行交换。因此,一些具备第四层交换能力的

15、局域网交换机,就能作为一个硬件负载均衡器,完成服务器的负载均衡。由于第四层交换基于硬件芯片,因此其性能非常优秀,尤其是对于网络传输速度和交换速度远远超过普通的数据包转发。然而,正因为它是使用硬件实现的,因此也不够灵活,仅仅能够处理几种最标准的应用协议的负载均衡,如 HTTP 。当前负载均衡主要用于解决服务器的处理能力不足的问题,因此并不能充分发挥交换机带来的高网络带宽的优点。使用基于操作系统的第四层交换技术因此孕育而生。通过开放源码的 Linux,将第四层交换的核心功能做在系统的核心层,能够在相对高效稳定的核心空间进行 IP 包的数据处理工作,其效率不比采用专有 OS 的硬件交换机差多少。同时

16、又可以在核心层或者用户层增加基于交换核心的负载均衡策略支持,因此在灵活性上远远高于硬件系统,而且造价方面有更好的优势。传输链路聚合为了支持与日俱增的高带宽应用,越来越多的 PC 机使用更加快速的链路连入网络。而网络中的业务量分布是不平衡的,核心高、边缘低,关键部门高、一般部门低。伴随计算机处理能力的大幅度提高,人们对多工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如 Web 访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,瓶颈延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作(像一脚踢掉

17、网线的插头)就会让服务器与网络断开。通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其超出目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型企业来说,采用升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级技术就显得大材小用了。在这种情况下,链路聚合技术为消除传输链路上的瓶颈与不安全因素提供了成本低廉的解决方案。链路聚合技术,将多个线路的传输容量融合成一个单一的逻辑连接。当原有的线路满足不了需求,而单一线路的升级又太昂贵或难以实现时,就要采用多线路的解决方案了。目前有 5 种链路聚合技术可以将多条线路“捆绑”起来。

18、同步 IMUX 系统工作在 T1/E1 的比特层,利用多个同步的 DS1 信道传输数据,来实现负载均衡。IMA 是另外一种多线路的反向多路复用技术,工作在信元级,能够运行在使用 ATM 路由器的平台上。用路由器来实现多线路是一种流行的链路聚合技术,路由器可以根据已知的目的地址的缓冲(cache)大小,将分组分配给各个平行的链路,也可以采用循环分配的方法来向线路分发分组。多重链路 PPP,又称 MP 或 MLP,是应用于使用 PPP 封装数据链路的路由器负载平衡技术。MP 可以将大的 PPP 数据包分解成小的数据段,再将其分发给平行的多个线路,还可以根据当前的链路利用率来动态地分配拨号线路。这样

19、做尽管速度很慢,因为数据包分段和附加的缓冲都增加时延,但可以在低速的线路上运行得很好。还有一种链路聚合发生在服务器或者网桥的接口卡上,通过同一块接口卡的多个端口映射到相同的 IP 地址,均衡本地的以太网流量以实现在服务器上经过的流量成倍增加。目前市面上的产品有 intel 和 dlink 的多端口网卡,一般在一块网卡上绑定 4 个 100M 以太端口,大大提高了服务器的网络吞吐量。不过这项技术由于需要操作系统驱动层的支持,只能在win2000 和 linux 下实现。链路聚合系统增加了网络的复杂性,但也提高了网络的可靠性,使人们可以在服务器等关键 LAN 段的线路上采用冗余路由。对于 IP 系

20、统,可以考虑采用 VRRP(虚拟路由冗余协议)。VRRP 可以生成一个虚拟缺省的网关地址,当主路由器无法接通时,备用路由器就会采用这个地址,使 LAN 通信得以继续。总之,当主要线路的性能必需提高而单条线路的升级又不可行时,可以采用链路聚合技术。带均衡策略的服务器群集如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和 I/O 能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将 10

21、台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是利用服务器群集实现负载均衡的最初基本设计思想。早期的服务器群集通常以光纤镜像卡进行主从方式备份。令服务运营商头疼的是关键性服务器或应用较多、数据流量较大的服务器一般档次不会太低,而服务运营商花了两台服务器的钱却常常只得到一台服务器的性能。通过地址转换将多台服务器网卡的不同 IP 地址翻译成一个 VIP(Virtual IP)地址,使得每台服务器均时时处于工作状态。原来需要用小型机来完成的工作改由多台 PC 服务器完成,这种弹性解决方案对投资保护的作用是相当

22、明显的既避免了小型机刚性升级所带来的巨大设备投资,又避免了人员培训的重复投资。同时,服务运营商可以依据业务的需要随时调整服务器的数量。网络负载均衡提高了诸如 Web 服务器、FTP 服务器和其他关键任务服务器上的因特网服务器程序的可用性和可伸缩性。单一计算机可以提供有限级别的服务器可靠性和可伸缩性。但是,通过将两个或两个以上高级服务器的主机连成群集,网络负载均衡就能够提供关键任务服务器所需的可靠性和性能。为了建立一个高负载的 Web 站点,必须使用多服务器的分布式结构。上面提到的使用代理服务器和 Web 服务器相结合,或者两台 Web 服务器相互协作的方式也属于多服务器的结构,但在这些多服务器

23、的结构中,每台服务器所起到的作用是不同的,属于非对称的体系结构。非对称的服务器结构中每个服务器起到的作用是不同的,例如一台服务器用于提供静态网页,而另一台用于提供动态网页等等。这样就使得网页设计时就需要考虑不同服务器之间的关系,一旦要改变服务器之间的关系,就会使得某些网页出现连接错误,不利于维护,可扩展性也较差。能进行负载均衡的网络设计结构为对称结构,在对称结构中每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后,可以通过某种技术,将外部发送来的请求均匀分配到对称结构中的每台服务器上,接收到连接请求的服务器都独立回应客户的请求。在这种结构中,由于建立内容完全一致的 Web 服务器并不困难,因此负载均衡技术就成为建立一个高负载 Web 站点的关键性技术。总之,负载均衡是一种策略,它能让多台服务器或多条链路共同承担一些繁重的计算或I/O 任务,从而以较低成本消除网络瓶颈,提高网络的灵活性和可靠性。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报