负载均衡技术应用介绍

发布 2021-04-09 21:23:28 阅读 8010

由于网络的数据流量多集中在中心服务器一端,所以现在所说的负载均衡,多指的是对访问服务器的负载进行均衡(或者说分担)措施。负载均衡,从结构上分为本地负载均衡和地域负载均衡(全局负载均衡),前一种是指对本地的服务器集群做负载均衡,后一种是指对分别放置在不同的地理位置、在不同的网络及服务器群集之间作负载均衡。

每个主机运行一个所需服务器程序的独立拷贝,诸如web、ftp、telnet或e-mail服务器程序。对于某些服务(如运行在web服务器上的那些服务)而言,程序的一个拷贝运行在群集内所有的主机上,而网络负载均衡则将工作负载在这些主机间进行分配。对于其他服务(例如e-mail),只有一台主机处理工作负载,针对这些服务,网络负载均衡允许网络通讯量流到一个主机上,并在该主机发生故障时将通讯量移至其他主机。

dns 最早的负载均衡技术是通过dns来实现的,在dns中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。

dns负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。当使用dns负载均衡的时候,必须尽量保证不同的客户计算机能均匀获得不同的地址。由于dns数据具备刷新时间标志,一旦超过这个时间限制,其他dns服务器就需要和这个服务器交互,以重新获得地址数据,就有可能获得不同ip地址。

因此为了使地址能随机分配,就应使刷新时间尽量短,不同地方的dns服务器能更新对应的地址,达到随机获得地址,然而将过期时间设置得过短,将使dns流量大增,而造成额外的网络问题。dns负载均衡的另一个问题是,一旦某个服务器出现故障,即使及时修改了dns设置,还是要等待足够的时间(刷新时间)才能发挥作用,在此期间,保存了故障服务器地址的客户计算机将不能正常访问服务器。

尽管存在多种问题,但它还是一种非常有效的做法,包括yahoo在内的很多大型**都使用dns。

**服务器

使用**服务器,可以将请求**给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。然而,也可以考虑这样一种技术,使用**服务器将请求均匀**给多台服务器,从而达到负载均衡的目的。

这种**方式与普通的**方式有所不同,标准**方式是客户使用**访问多个外部服务器,而这种**方式是**多个客户访问内部服务器,因此也被称为反向**模式。虽然实现这个任务并不算是特别复杂,然而由于要求特别高的效率,实现起来并不简单。

使用反向**的好处是,可以将负载均衡和**服务器的高速缓存技术结合在一起,提供有益的性能。然而它本身也存在一些问题,首先就是必须为每一种服务都专门开发一个反向**服务器,这就不是一个轻松的任务。

**服务器本身虽然可以达到很高效率,但是针对每一次**,**服务器就必须维护两个连接,一个对外的连接,一个对内的连接,因此对于特别高的连接请求,**服务器的负载也就非常之大。反向**方式下能应用优化的负载均衡策略,每次访问最空闲的内部服务器来提供服务。但是随着并发连接数量的增加,**服务器本身的负载也变得非常大,最后反向**服务器本身会成为服务的瓶颈。

地址转换网关

支持负载均衡的地址转换网关,可以将一个外部ip地址映射为多个内部ip地址,对每次tcp连接请求动态使用其中一个内部地址,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。由于地址转换相对来讲比较接近网络的低层,因此就有可能将它集成在硬件设备中,通常这样的硬件设备是局域网交换机。

当前局域网交换机所谓的第四层交换技术,就是按照ip地址和tcp端口进行虚拟连接的交换,直接将数据包发送到目的计算机的相应端口。通过交换机就能将来自外部的初始连接请求,分别与内部的多个地址相联系,此后就能对这些已经建立的虚拟连接进行交换。因此,一些具备第四层交换能力的局域网交换机,就能作为一个硬件负载均衡器,完成服务器的负载均衡。

由于第四层交换基于硬件芯片,因此其性能非常优秀,尤其是对于网络传输速度和交换速度远远超过普通的数据包**。然而,正因为它是使用硬件实现的,因此也不够灵活,仅仅能够处理几种最标准的应用协议的负载均衡,如http 。当前负载均衡主要用于解决服务器的处理能力不足的问题,因此并不能充分发挥交换机带来的高网络带宽的优点。

协议内部支持

除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如http协议中的重定向能力等,http运行于tcp连接的最高层。客户端通过端口号80的tcp服务直接连接到服务器,然后通过tcp连接向服务器端发送一个http请求。在服务器分清客户端所需的网页和资源之前,至少要进行四次tcp的数据包交换请求。

由于负载平衡设备要把进入的请求分配给多个服务器,因此,它只能在tcp连接时建立,且http请求通过后才能确定如何进行负载的平衡。当一个**的点击率达到每秒上百甚至上千次时,tcp连接、http报头信息以及进程的时延已经变得很重要了。在http请求和报头中有很多对负载平衡有用的信息。

首先,也是最重要的一点是,我们可以从这些信息中获知客户端所请求的url和网页,利用这个信息,负载平衡设备就可以将所有的图像请求引导到一个图像服务器,或者根据url的数据库查询内容调用cgi程序,将请求引导到一个专用的高性能数据库服务器。惟一能局限这些信息获取的因素是负载平衡设备本身的灵活程度。事实上,如果网络管理员熟悉web内容交换技术,他可以仅仅根据http报头的cookie字段来使用web内容交换技术改善对特定客户的服务,如果能从http请求中找到一些规律,还可以充分利用它作出各种决策。

除了tcp连接表的问题外,如何查找合适的http报头信息以及作出负载平衡决策的过程,是影响web内容交换技术性能的重要问题。

但它依赖于特定协议,因此使用范围有限。根据现有的这些负载均衡技术,并应用优化的均衡策略,来实现后端服务器负载分担的最优状态。

相关解决方案

radware全面负载均衡方案

radware公司是一家提供internet流量管理解决方案的**商,提供完整的ip负载均衡解决方案。

高可用性、兼容性、安全性以及对带宽的管理,是radware公司的itm负载均衡方案和普通的、具备负载均衡功能的第四层交换的主要区别。具体比较而言,itm方案可以深入地了解和监控服务器;作为一个开放的结构,拥有较好的兼容性,可以和业界所有的产品兼容;在带宽管理方面,itm方案能根据访问优先级和策略的要求,让特定用户访问特定的**和信息。itm方案能优化资源的利用,提供更好、更多的算法,以求在服务器之间达到最好的负载均衡。

更为重要的是,作为因特网流量管理的产品,它能方便地部署到网络中,而对于提供负载均衡的第四层交换,在部署时会改变原有的网络结构。

目前,radware提供的全套itm解决方案,包括如下四大方面产品:服务器群的负载均衡、高速缓存服务器的负载平衡、防火墙的负载均衡以及链路的负载均衡。在服务器群的负载均衡和管理方面,主要提供web server director,它可以监视所有的用户请求,并在可用的服务器群之间进行智能化的负荷分配,从而可以提供容错、冗余、优化和可扩展性能。

在高速缓存服务器的管理方面,radware提供了cache server director,它可以提供优化的internet访问和存储资源使用率,同时,也使整个服务器群的性能得以最大程度的发挥。防火墙的负载均衡也许是一个厂家比较少涉及的领域,radware提供的 fireproof是一种动态负载平衡系统,可有效地管理多个防火墙和其他安全设备上的流量。它使用的算法能够监视客户的数量和每个防火墙上的负载,并在各单元之间动态地平均分配流量,同时还可兼顾呼入和呼出的流量。

针对目前越来越多的公司采用多条链路来保持“永远**”,radware还推出了linkproof,它是一种全面的、易于使用的内容交通管理解决方案,适用于具有多个链接的网络。

汽车减震技术应用介绍

一 动力总成悬置系统。一 功能。1 降低动力总成振动向车身的传递。2 衰减由于路面激励引起的动力总成振动衰减由于路面激励引起的动力总成振动。3 控制动力总成位移和转角。二 设计目标。1 系统的最高阶固有振动频率应小于发动机工作中的最小激振频率的动机工作中的最小激振频率的00.717717倍倍。2 系...

实用节能技术应用介绍

1 新型节能变压器 s14 非晶合金变压器等等 优点 1 节能效益明显。变压器的自身损耗显著降低,且非晶合金变压器是配电变压器行业的一个发展方向。2 环保效应强。s14 非晶合金变压器节能效果显著,可节省大量的发电燃料,减少对大气的污染。而且以上两种变压器的体积较小节省土地资源。3 综合使用成本低。...

RFoG技术介绍及其应用

作者 周红文。声屏世界 2011年第11期。docsis技术在国内应用的过程中,因其网络拓扑而引起的回传汇聚噪声问题,导致了运营维护成本的大幅增加。rfog 光纤射频传输 技术的出现不但解决了回传汇聚噪声的问题,使得运营商可以继续使用头端cmts设备为用户提供更好的服务,并且系统可以在不需要进行大规...