在现代化、高流量的应用程序环境中,保证应用程序的可用性和性能至关重要。负载均衡数据中心通过将流量分布到多个服务器或数据中心,提供了一种可靠、可扩展的解决方案,从而提高应用程序的可用性和性能。
有几种不同的负载均衡类型,每种类型具有独自の優點和缺點:
负载均衡是一种通过合理分配和调度资源,使系统中的负载均匀分布,提高系统的性能和可靠性的技术和策略。
1.什么是负载均衡
负载均衡是指在一个系统中,将工作负载均匀地分配到多个资源上,以提高系统的整体性能和可靠性。这个系统可以是计算机、网络或其他类型的系统。负载均衡的目标是确保每个资源都能够得到合理的利用,避免资源过载或闲置,从而提高系统的效率和稳定性。
2.负载均衡的原理
负载均衡的原理是通过将请求分发到多个服务器或资源上,使每个服务器或资源的负载均匀分布。有多种负载均衡算法可以实现这一目标,如轮询算法、加权轮询算法、最少连接算法等。这些算法会根据服务器的性能和负载情况,决定将请求发送到哪个服务器上,以实现负载均衡。
3.负载均衡的好处
提高系统的性能:通过将负载均匀地分配到多个资源上,可以减轻单个资源的负荷,提高系统的处理能力和吞吐量。提高系统的可靠性:通过将负载分散到多个资源上,即使某个资源发生故障或下线,系统仍然可以继续正常运行,提高了系统的可用性和容错性。
提高系统的可伸缩性:当系统的负载增加时,通过负载均衡可以动态地将请求分发到更多的资源上,从而使系统能够扩展,满足更多用户的需求。
优化资源利用:负载均衡可以根据资源的性能和负载情况,智能地分配请求,使每个资源得到合理的利用,避免资源的浪费和闲置。简化系统管理:通过负载均衡,可以将多个资源组织成一个逻辑集群,统一管理和调度,简化了系统的运维和管理工作。
4.负载均衡的应用场景
网站和应用服务器:通过负载均衡将用户请求分发到多个服务器上,提高网站和应用的性能和可用性。数据中心和云计算平台:通过负载均衡,将用户的请求分发到多个虚拟机或容器上,实现资源的弹性分配和动态调度。
常用的均衡技术有负载均衡、流量均衡、硬件负载均衡器、DNS负载均衡、数据库负载均衡等。
1、负载均衡:主要用于分发网络或服务器负载,确保各个服务器或网络设备能够均衡地处理请求。负载均衡算法包括轮询、最小连接数、最短响应时间等,用于提高系统的稳定性和性能。
2、流量均衡:用于分配网络流量,确保网络带宽得到有效利用。通过智能路由、流量调度等技术,实现网络流量的均衡分配,防止出现拥塞和瓶颈。
3、硬件负载均衡器:通过专用硬件设备,对流量和请求进行分发,将负载均衡的任务从服务器转移到专门的硬件设备上,提高负载均衡的效率和速度。
4、DNS负载均衡:通过DNS解析将请求分配到多个服务器上,使得用户访问时能够得到一个合适的服务器地址。这样可以根据服务器的负载和性能来动态地调整DNS解析结果。
5、数据库负载均衡:通过将数据库请求分发到多个数据库服务器上,确保数据库负载均衡,提高数据库系统的性能和可用性。
均衡技术的应用
1、网络负载均衡:在网络领域,负载均衡技术用于分发网络请求,确保各个服务器能够均衡地处理流量。这有助于提高网站的性能和可扩展性,防止服务器过载。
2、服务器负载均衡:用于分发用户请求到多个服务器,确保服务器资源被充分利用,提高系统的响应速度和容错能力。
3、云计算:在云计算环境中,负载均衡技术对于分配虚拟机、存储和网络资源至关重要,确保云服务的可用性和性能。
4、数据库负载均衡:数据库负载均衡用于将数据库请求分发到多个数据库服务器上,提高数据库系统的性能和可用性,防止数据库成为系统瓶颈。
1、服务直接返回:这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。
2、桥接模式:桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。
3、路由模式:路由模式的部署方式,服务器的网关必须设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。
扩展资料
负载均衡的算法:
1、随机算法:Random随机,按权重设置随机概率。在一个截面上碰撞的概率高,但调用量越大分布越均匀,而且按概率使用权重后也比较均匀,有利于动态调整提供者权重。
2、哈希算法:一致性哈希一致性Hash,相同参数的请求总是发到同一提供者。当某一台提供者挂时,原本发往该提供者的请求,基于虚拟节点,平摊到其它提供者,不会引起剧烈变动。
3、URL散列:通过管理客户端请求URL信息的散列,将发送至相同URL的请求转发至同一服务器的算法。
参考资料
网络百科-负载均衡
F5负载均衡是一款高性能的负载均衡设备,它可以将网络流量分配到多个服务器上,从而提高系统的可用性和性能。在本文中,我们将介绍F5负载均衡的基础知识和配置方法。
什么是F5负载均衡?
F5负载均衡是一种网络设备,它可以将网络流量分配到多个服务器上,从而提高系统的可用性和性能。F5负载均衡可以实现多种负载均衡算法,如轮询、加权轮询、最少连接等,以满足不同场景下的负载均衡需求。
如何配置F5负载均衡?
配置F5负载均衡需要以下步骤:
1.连接F5负载均衡设备
首先,需要通过SSH或Web界面连接到F5负载均衡设备。通过SSH连接时,需要使用管理员账号和密码进行身份验证。
2.创建虚拟服务器
在F5负载均衡中,虚拟服务器是负载均衡的核心概念。虚拟服务器可以将流量分配到多个后端服务器上。在F5负载均衡中,需要先创建虚拟服务器,然后再将其绑定到后端服务器上。
3.配置虚拟服务器
在创建虚拟服务器后,需要对其进行配置。配置虚拟服务器包括以下步骤:
-指定虚拟服务器的IP地址和端口号;
-指定虚拟服务器的负载均衡算法;
-指定虚拟服务器的会话保持方式;
-指定虚拟服务器的健康检查方式。
4.添加后端服务器
在配置虚拟服务器后,需要将其绑定到后端服务器上。在F5负载均衡中,可以通过IP地址、主机名或域名来添加后端服务器。添加后端服务器后,需要对其进行健康检查,以确保其正常运行。
5.配置池
在将虚拟服务器绑定到后端服务器上后,需要创建池。池是一组后端服务器的集合,它们共享同一个IP地址和端口号。在配置池时,需要指定负载均衡算法和会话保持方式。
6.配置健康检查
在配置池后,需要对其进行健康检查。健康检查可以检测后端服务器的状态,并将不可用的服务器从池中删除。在F5负载均衡中,可以使用ICMP、TCP、HTTP等方式进行健康检查。
7.配置SNAT
在配置F5负载均衡时,需要考虑源地址转换(SNAT)的问题。如果不进行SNAT配置,那么后端服务器将无法正确地识别客户端的IP地址。在F5负载均衡中,可以通过SNAT池来实现源地址转换。
8.配置SSLoffload
在配置F5负载均衡时,需要考虑SSL卸载(SSLoffload)的问题。SSL卸载可以将SSL加密的流量解密后再进行负载均衡,从而提高系统的性能。在F5负载均衡中,可以通过SSL证书、SSL配置文件等方式来实现SSL卸载。
导语:由于社会的发展,越来越多的科技产品出现人们的生活中,而有一种机器设备是处于我们平时所使用的服务器和internet链接之间的,它被人们称为“负载均衡器”。
负载均衡器是一种使网络访问者获得最好网络联接体验的一种硬件设施。它的形式多种多样,各式不同。它的较为突出的价值体现在数据库系统优化或者安全套会话上。而为了保证通过管理进入的数据流量和增加有效的网络带宽,市场上出现了各种品牌的负载均衡器,为了避免问题的出现,小编接下来就为大家介绍几款值得信赖的负载均衡器。
一、F5负载均衡器
F5是全球应用交付网络领域的领导者,随着科技的发达和硬件软件的开发建设,越来越多的企业集团及提供商等等为了推动公司的营运发展,会采用F5的负载均衡器来解决和优化IT技术。
不仅如此,在单台服务器性能遇到瓶颈问题的时候,F5负载均衡器就会把所有请求分配到多台服务器上,以达到提高系统处理能力的效果。
F5负载均衡器设备配置包括负载均衡池、虚拟服务器、节电状态监控和节点等等,它可以整合不同的技术,帮助用户提高数据管理和应用交付的能力,更使得在使用时方便快捷的控制它的架构,快速安全的帮助用户接入应用中去。
二、radware
Radware是一家致力于保证用户在网络连接上快速、安全而可靠的实行交付网络的企业供应商。在智能化解决方案中,属于领导品牌。Radware的任务就是为在internet等应用中提供最优质的服务质量,并且为它们提供功能发展强大,经济实惠的网络环境。
作为智能化解决方案的领导者,它要建造最优化的资源使用效率,保持网络稳定性,以达到最理想化的系统业务处理,为不同的客户提供最先进、最优质的服务。
在Radware中,产品多种多样,其中包括防火墙、服务器等等,这些产品结合了市场上负载均衡器的各种功能,优化了各类企业集团的网络性能的使用。为用户们提供了安全可靠、可扩展性大的一系列的解决方案。
三、A10
A10凭借着可扩展性高级核心操作系统的革新技术,成为了网络身份管理的核心。它具有了上述中F5与Radware的可靠性和能量效率低的优良特性,并且为了能够快速的回应客户需求,确保高效便捷的操作方式,它设计了一个最终用户体验,专门为用户们解决问题。
以上就是小编为读者介绍的负载均衡器品牌,希望对读者有所帮助。
土巴兔在线免费为大家提供“各家装修报价、1-4家本地装修公司、3套装修设计方案”,还有装修避坑攻略!点击此链接:【】,就能免费领取哦~
腾讯云数据库F5负载均衡是一种高效、稳定、可扩展的负载均衡解决方案,旨在解决高并发、大数据量等场景下的性能瓶颈和单点故障问题。
F5负载均衡通过将多个请求分发到不同的服务器上,使得每个服务器都能独立处理一部分请求,从而实现负载均衡的目标。这不仅可以提高系统的整体性能和响应速度,还可以避免某个服务器过载的情况发生。
F5负载均衡支持对后端服务器进行健康检查,定期检测服务器的状态和可用性。当服务器出现故障时,F5负载均衡会自动将其从负载均衡列表中剔除,保证请求不会被转发到故障服务器上。
总的来说,腾讯云数据库F5负载均衡是一种功能强大、易于使用的负载均衡解决方案。通过使用F5负载均衡,用户可以有效地提高系统的性能、可用性和稳定性,降低运维成本和风险。
腾讯云数据库F5负载均衡具有以下特点:
1、高可用性:通过将请求分发到多个服务器上,避免了单点故障的问题。当某个服务器出现故障时,F5负载均衡会自动将请求切换到其他可用的服务器上,保证系统的可用性。
2、负载均衡算法:F5负载均衡支持多种负载均衡算法,如轮询、随机、最少连接等。用户可以根据实际需求选择合适的算法,实现最佳的性能和效率。
3、会话保持:F5负载均衡支持会话保持功能,即对于同一用户的不同请求,会将其发送到同一台服务器上,保证用户的会话一致性。
4、流量控制:F5负载均衡支持基于IP、URL等维度的流量控制,可以根据实际需求对流量进行限制和限速,保证系统的稳定性和安全性。
负载均衡(Load Balance)其意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。
负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
负载均衡有三种部署方式:路由模式、桥接模式、服务直接返回模式。路由模式部署灵活,约60%的用户采用这种方式部署;桥接模式不改变现有的网络架构;服务直接返回(DSR)比较适合吞吐量大特别是内容分发的网络应用。约30%的用户采用这种模式。
扩展资料:
负载均衡的分类:
1、软件负载均衡解决方案是指在一台或多台服务器相应的操作系统上安装一个或多个附加软件来实现负载均衡,如DNS Load Balance,CheckPoint Firewall-1 ConnectControl等,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。
2、硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备通常称之为负载均衡器,由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。
参考资料:网络百科-负载均衡
Internet的规模每一百天就会增长一倍,客户希望获得7天24小时的不间断可用性及较快的系统反应时间,而不愿屡次看到某个站点“Server Too Busy”及频繁的系统故障。 网络的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担。 在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量的需求。 于是,负载均衡机制应运而生。 负载均衡(Load Balance)建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。 负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 什么是负载均衡负载均衡(Load Balance)由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担。 在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。 针对此情况而衍生出来的一种廉价有效透明的方法以扩展现有网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性的技术就是负载均衡(Load Balance)。 负载均衡技术主要应用1、DNS负载均衡最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。 DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。 2、代理服务器负载均衡使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。 然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡的目的。 3、地址转换网关负载均衡支持负载均衡的地址转换网关,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。 4、协议内部支持负载均衡除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力等,HTTP运行于TCP连接的层。 5、NAT负载均衡NAT(Network Address Translation 网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet IP地址间进行转换。 适用于解决Internet IP地址紧张、不想让网络外部知道内部网络结构等的场合下。 6、反向代理负载均衡普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。 反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。 7、混合型负载均衡在有些大型网络,由于多个服务器群内硬件设备、各自的规模、提供的服务等的差异,我们可以考虑给每个服务器群采用最合适的负载均衡方式,然后又在这多个服务器群间再一次负载均衡或群集起来以一个整体向外界提供服务(即把这多个服务器群当做一个新的服务器群),从而达到的性能。 我们将这种方式称之为混合型负载均衡。 此种方式有时也用于单台均衡设备的性能不能满足大量连接请求的情况下。 哪些地方需要使用负载均衡在国内的环境中有三个地方可以使用到这个功能,首先应该是网吧,网吧对带宽的要求较高,而因为国内ISP混乱的情况,有些网吧也会用到多线路接入,所以负载均衡对网吧是很实用的功能,其次是企业和小区运营商。 企业也会有这样的需求,有些企业对网络要求也很高,甚至没有网络就不能办公。 另外就是小区运营商了,小区运营商也有很多使用多线路接入,这样负载均衡也就很适合了。 如何使用负载均衡现在很多路由都带有负载均衡功能,可以直接在路由上设置然后使用,比如软路由海蜘蛛、ROS等,硬路由有侠诺,飞鱼星等。 需要注意的是在使用前了解清楚路由的具体的型号支不支持。
SQL Server 负载均衡集群一个应用系统随着业务量的提高,以及访问量和数据流量的快速增长,各个核心部分的处理性能和计算强度也相应增大,使得单一设备根本无法承担。 在此情况下,如果扔掉现有设备去做大量的硬件升级,必将造成现有资源的浪费,而且下一次业务量的提升,又将导致再一次硬件升级的高额成本投入。 于是,负载均衡机制应运而生。 对于应用系统的负载均衡的硬件和软件比比皆是,因为应用服务器上的程序基本上认为是不变化的,而且一般的各个应用服务器上的程序是不交互的。 因此应用服务器的负载均衡非常好做,只需要能够进行分流的软件或者硬件把多个客户端的连接分配到多个应用服务器上去即可。 因为数据库内的数据是频繁变化的,为了数据的一致性以及锁资源的分配协调等,所以像应用服务器那样只有分流是不够的,各个节点需要频繁的交互。 这也是数据库集群软件难做的原因,当然也是卖的贵的原因了。 Oracle Real Application Clusters对于数据库负载均衡,大家最为耳熟能详的就是Oracle RAC了。 RAC是双机并行服务器(8i及以前版本称作Oracle parallel Server,OPS),用来在集群环境下实现多机共享数据库,以保证应用的高可用性,同时可以自动实现并行处理及均分负载,还能实现数据库在故障时的排错和无断点恢复。 它可以自动进行负载平衡、故障修复和规划停机时间,以支持高可用性应用程序。 若并行服务器中某节点失效,透明的应用程序容错能够把用户自动转接到另一节点上继续运行,应用程序在用户没有察觉的情况下继续执行。 这使周期性和非周期性发生故障的系统增大了连续可用性。 进程的失效可以完全透明地转移到另一节点上去,通过适当地配置,可以指定所有查询都在客户端进行缓存,这样它们便可以在转移后的节点上重新设置。 Moebius for SQL Server截至到SQL Server 2008,微软还是没有推出负载均衡组件,只能靠第三方软件来实现,好在这个软件是几个从微软出来的人写的,也算是个小小的巧合。 说他们是微软出来的并不是说他们的技术多厉害,而是他们利用SQL Server的一些内部接口把集群做的非常透明, 无论是应用程序的调用还是开发/管理人员的使用都和面对一个数据库一样。 他们的实现原理是这样的:和SQL Server镜像一样,每个数据库节点都有自己的数据,也就是无共享磁盘架构。 他们称之为“中间件”的程序宿主在数据库的内部,每个节点数据库上写入数据导致数据变化时,SQL Server会激活“中间件”,“中间件”把变化的数据同步到其他的节点上。 其他节点发生变化也是一样。 因为“中间件”宿主在数据库内, 所以它能够把每个同步的Session和SQL Server的Session绑定到一起,也就是使用户的执行和数据的同步成为一个原子操作,从而保证数据在每时每刻都是一致的。 因此查询可以随便到每个机器上去查,从而做到了真正的负载均衡。 这是一种叫数据库路由器的技术,这种技术的特点是灵活性好,但效率比RAC要低,毕竟RAC是在引擎里实现的不管怎么样有比没有强!
随着用户访问的增多,一个应用服务器不能满足需求了,就需要部署多台应用服务器,通过负载均衡,将数据分发到不同的应用服务器。 从作用来看,和缓存集群的分发很相似,但是有不同。 缓存需要发送到特定的服务器。 但是,由于应用服务器是无状态的,因此,负载均衡不用根据请求分发到特定服务器,发送到哪个应用服务器都可以。 因此,负载均衡关注的技术焦点有两个,分别是:网络通信、路由选择 网络通信分为以下几种方法。 负载均衡服务器什么都不做,重定向响应 这种方法优点是简单,但是缺点也很明显: 由于这些问题,这种方法,在现实中几乎没有人使用。 每次请求DNS解析到IP地址不同,从而访问到不同到应用服务器。 这种方法,性能方面没有问题,虽然,还是2次http请求,但是不是每一次请求都需要域名解析,一次解析,ip就会记录到本地。 下次,直接访问记录的ip。 因此,性能无问题。 但是,由于域名解析服务器解析出的ip,如果出错,不会很快更新,且用户已经本地存储了ip也不会很快改变。 因此,采用这种方案时,需要两级负载均衡。 若应用服务器出错,在第二层负载均衡去掉。 对于安全性,现实使用时,该方法主要适用于两层负载均衡的情况,DNS负载均衡用于第一层负载均衡,解析出来的是第二层负载均衡服务器,因此,脆弱的服务器还是可以在内网中。 淘宝、网络,不同时间ping,返回地址不同,意味着都是用了DNS负载均衡。 在应用层进行负载均衡,收到请求时,将请求转发到内网,再将收到的内网响应,返回给用户。 nagix本身的反向代理服务器,就有该功能。 一般应用服务器是几十台,这种模式够用,再多一些,会不够用。 因此,大一些的网站不会使用。 因为用的http请求协议,http比较重(比tcp的包重)。 对反向代理服务器压力很大,其通过应用程序级别的线/进程才能完成分发,还要等应用服务器返回,因此,会有性能瓶颈。 即使负载均衡做集群效率也低,因为后面的应用服务器有限。 因此,可以应用的规模很有限。 负载均衡服务器,和反向代理负载均衡原理相同,但是是在tcp层,修改包中源地址和目标地址,并发送到内网,收到响应后,再修改目标地址和原地址,返回给用户。 因为,负载均衡服务器处理的是ip那一层包,因此,处理能力可以提高。 但是,这种方法,请求和响应都通过了负载均衡,尤其是响应一般比较大。 响应出口网络带宽会成为瓶颈。 数据链路层负载均衡,IP地址不变,只修改网卡MAC地址。 应用服务器和负载均衡服务器共享一个虚拟ip。 因为ip没有被修改过,tcp/ip协议还是通的,可以通过校验。 又由于目的地址的mac地址改变了,因此,处理响应不用再经过负载均衡服务器。 大型互联网应用主要使用的负载均衡方案,也称为负载均衡的三角模式。 轮询 .... 该方案已经被淘汰的。 通过session复制的方式,集群规模会受限制,复制不过来。 做集群就是因为用户请求多,请求多,session也多,如果每个都有所有的session,对服务器压力很大。 来自相同的ip,总是到同一个应用服务器。 这种方法也很快就淘汰了。 因为,会话需要会话关闭,如果因为发布程序,kill进程,session丢失。 系统的可用性会下降。 发请求时,带cookie发送服务器,session记录的cookie中,返回给浏览器。 任何一台服务器可以重cookie里得到session。 缺点:cookie变大,网络开销有影响。 且有些浏览器禁用cookie,不好用。 早期使用的这个方案。 缺点明显,但是生命力强。 对服务器架构要求很低。
本文地址:http://www.hyyidc.com/article/25290.html