SQL SERVER 怎么做负载均衡
引言:软件系统的复杂性不断增长、软件人员的频繁流动和软件行业的激烈竞争迫使软件企业提高软件质量、积累和固化知识财富,并尽可能地缩短软件产品的开发周期。
于是集软件复用、分布式对象计算、企业级应用开发等技术为一体的"基于中间件的软件开发"(CBSD,Component Based Sortware Development)应运而生,这种技术以软件架构为组装蓝图,以可复用软件构件为组装模块,支持组装式软件的复用,大大提高了软件生产效率和软件质量。
为此国风外对于这一技术的研究正在不断深入,同时大型的软件公司(例如sun,microsoft)及软件组织机构(OMG)都推出了支持中间件技术的软件平台。
面对高深的中间件技术和繁多的软件平台,很多人感到很茫然和无从下手,本文简单介绍了中间件技术的发展和特点,重点阐述和比较了三大主流中间件技术平台,使读者对中间件技术有个全面的了解。
中间件技术的概念及发展 顾名思义,中间件是处于应用软件和系统软件之间的一类软件,是独立于硬件或数据库厂商(处于其产品的中间,实现其互连)的一类软件,是客户方与服务方之间的连接件,是需要进行二次开发的中间产品。
应该说,中间件技术是伴随网络而发展起来的一种面向对象的技术。
以前的计算机系统多是单机系统,多个用户是通过联机终端来访问的,没有网络的概念。
网络出现后,产生了Client/Server的计算服务模式,多个客户端可以共享数据库服务器和打印服务器等等。
随着网络的更进一步发展,许多软件需要在不同厂家的网络产品、硬件平台、网络协议异构环境下运行,应用的规模也从局域网发展到广域网。
在这种情况下,Client/Server模式的局限性也就暴露出来了,于是中间件应运而生。
中间件是位于操作系统和应用软件之间的通用服务,它的主要作用是用来屏蔽网络硬件平台的差异性和操作系统与网络协议的异构性,使应用软件能够比较平滑地运行于不同平台上。
同时中间件在负载平衡、连接管理和调度方面起了很大的作用,使企业级应用的性能得到大幅提升,满足了关键业务的需求。
当前支持服务器端中间件技术的平台 考察当前主流的分布计算技术平台,主要有OMG的CORBA、Sun的J2EE和Microsoft DNA 2000。
它们都是支持服务器端中间件技术开发的平台,但都有其各自的特点,将分别阐述如下。
1.OMG的CORBA CORBA分布计算技术是OMG组织基于众多开放系统平台厂商提交的分布对象互操作内容的基础上制定的公共对象请求代理体系规范。
CORBA分布计算技术,是由绝大多数分布计算平台厂商所支持和遵循的系统规范技术,具有模型完整、先进,独立于系统平台和开发语言,被支持程度广泛的特点,已逐渐成为分布计算技术的标准。
COBRA标准主要分为3个层次:对象请求代理、公共对象服务和公共设施。
最底层是对象请求代理ORB,规定了分布对象的定义(接口)和语言映射,实现对象间的通讯和互操作,是分布对象系统中的"软总线";在ORB之上定义了很多公共服务,可以提供诸如并发服务、名字服务、事务(交易)服务、安全服务等各种各样的服务;最上层的公共设施则定义了组件框架,提供可直接为业务对象使用的服务,规定业务对象有效协作所需的协定规则。
目前,CORBA兼容的分布计算产品层出不穷,其中有中间件厂商的ORB产品,如BEAM3,IBM Component Broker,有分布对象厂商推出的产品,如IONAObix和OOCObacus等. CORBA规范的近期发展,增加了面向Internet的特性,服务质量控制和CORBA构件模型(CORBA Component Model)。
Internet集成特性包括了针对IIOP传输的防火墙(Firewall)和可内部操作的定义了URL命名格式的命名服务(Naming Service)。
服务质量控制包括能够具有质量控制的异步消息服务,一组针对嵌入系统的CORBA定义,一组关于实时CORBA与容错CORBA的请求方案。
CORBA CCM(CORBA Component Model)技术,是在支持POA的CORBA规范(版本2.3以后)基础上,结合EJB当前规范的基础上发展起来的。
CORBA构件模型,是OMG组织制定的一个用于开发和配置分布式应用的服务器端中间件模型规范,它主要包括如下三项内容: a.抽象构件模型,用以描述服务器端构件结构及构件间互操作的结构; b.构件容器结构,用以提供通用的构件运行和管理环境,并支持对安全、事务、持久状态等系统服务的集成; c.构件的配置和打包规范,CCM使用打包技术来管理构件的二进制、多语言版本的可执行代码和配置信息,并制定了构件包的具体内容和基于XML的文档内容标准。
总之,CORBA的特点是大而全,互操作性和开放性非常好。
CORBA的缺点是庞大而复杂,并且技术和标准的更新相对较慢,COBRA规范从1.0升级到2.0所花的时间非常短,而再往上的版本的发布就相对十分缓慢了。
在具体的应用中使用不是很多。
路由器负载平衡,是什么意思,工具或者脚本有哪些
你的问题太专业了,想不用术语说明白基本很难,你先了解下负载平衡的概念和一些基本的吧。
1、负载平衡(Loading Balance)是一种策略,能够将复杂计算或繁重的I/O任务在多台服务器或多条链路之间实现平衡分布。
这一技术是建立在现有网络结构之上,能提供一种廉价有效的、透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高响应速度、从而以较低成本消除网络瓶颈,提高网络的灵活性和可用性。
?负载平衡可分为以下几类:?1、本地负载平衡和异地负载平衡?负载平衡按服务器所在位置分为本地负载平衡和异地负载平衡。
本地负载平衡是指服务器群在同一地方,能解决本地关键Internet/Intranet应用服务器上的网络访问量大和网络负载过载等问题;异地负载平衡是指服务器存放在不同的地理位置、在不同网络结构的服务器群间作负载均衡。
?2、静态负载平衡和动态负载平衡?负载平衡按照对任务的分配形式(负载的调度算法)分为静态负载平衡和动态负载平衡。
在网络环境下,当负载平衡器(或均衡器负责任务分配的装置)收到客户的请求后,根据某一调度算法,将任务尽可能地分配到服务器群集中的各个服务器上,使各个服务器的客户请求数保持相对均衡,这就是静态负载平衡。
其只能实现任务在服务器群集中静态分配,而不能考虑到任务繁简程度以及服务器的各自承载能力。
?动态负载平衡是指服务器群集中成员服务器执行负载后出现过载(或达到饱和)时,根据相应的调度算法,动态地将负载较重的服务器上的任务向服务器集群中的其他负载较轻的成员服务器上迁移,使服务器集群中成员服务器上的负载尽可能达到均匀。
这一技术能实现任务迁移(或负载动态地分配),能考虑到成员服务器的实际承载能力,在此间实现动态分配。
?3、软件负载平衡和硬件负载平衡?软件负载均衡是指在一台或多台服务器相应的操作系统上安装能实现负载均衡功能的软件,如DNS Load Balance,Windows 2000 Applications Center Beta 2等,网管人员可以利用该软件进行服务器端的配置和通信管理,他的优点是服务器端配置简单、使用灵活、成本低廉,可满足架构中小企业级电子商务网站的负载平衡需求。
?硬件负载平衡是指基于负载分配器的一种负载分配策略,负载分配器(也称为负载均衡器)一般使用专用服务器、路由器等设备承担,所以这类设备的性能直接影响整个系统的服务质量。
负载均衡器一般设在Intranet和Internet之间,具有较好的均衡策略、较高的效率和性价比。
负载均衡是什么
软件装在电脑系统上面的比较多,检查安装软件是否对系统造成威胁,硬件的话主要拦截网络当中外来攻击。
现在很多问题来自局域网内部电脑造成的,局域网的话最海鸥是用免疫墙。
免疫墙是专门针对局域网安全和管理的,我们可以把免疫墙看做1、是一套内网底层防火墙:彻底解决病毒木马的网络攻击,掉线、卡滞问题(尤其对2、3层的处理)。
解决ARP(先天免疫、ARP探寻)问题无人能及2、是一套真实身份准入系统:对网络内终端电脑的身份严格有效的管理(真实IP、MAC,CPU硬盘主板,基因式)。
彻底解决IP欺骗(私拉线、克隆、IP冲突)3、是一套网络带宽管理设备:精细的内网带宽管理、负载均衡、流量统计(内外网、服务器、应用交付)4、是一套全面网管软件:观察网络内部协议过程,远程调试管理(监控中心、审计)
什么是网站负载均衡?
网站负载均衡(Load Balance)建立在现有网络结构之上,它提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。
由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担。
在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。
互联在线的门户网站“负载均衡、加速及防御解决方案包括 “构建Web服务器集群实现无瓶颈负载均衡、故障容错”和“构建Web服务器集群实现无瓶颈负载均衡、南北互通、故障容错”两个解决方案和“攻击防御体系”三部分。
集群和负载均衡的区别 nginx
展开全部 集群和负载均衡的区别如下:1、集群(Cluster)所谓集群是指一组独立的计算机系统构成的一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信?应用程序可以通过网络共享内存进行消息传送,实现分布式计算机?2、负载均衡(Load Balance)网络的负载均衡是一种动态均衡技术,通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理均衡地分配出去?这种技术基于现有网络结构,提供了一种扩展服务器带宽和增加服务器吞吐量的廉价有效的方法,加强了网络数据处理能力,提高了网络的灵活性和可用性?3、特点(1)高可靠性(HA)?利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务?(2)高性能计算(HP)?即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析?化学分析等?(3)负载平衡?即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求?LVS系统结构与特点1. Linux Virtual Server:简称LVS?是由中国一个Linux程序员章文嵩博士发起和领导的,基于Linux系统的服务器集群解决方案,其实现目标是创建一个具有良好的扩展性?高可靠性?高性能和高可用性的体系?许多商业的集群产品,比如RedHat的Piranha? Turbo Linux公司的Turbo Cluster等,都是基于LVS的核心代码的?2. 体系结构:使用LVS架设的服务器集群系统从体系结构上看是透明的,最终用户只感觉到一个虚拟服务器?物理服务器之间可以通过高速的 LAN或分布在各地的WAN相连?最前端是负载均衡器,它负责将各种服务请求分发给后面的物理服务器,让整个集群表现得像一个服务于同一IP地址的虚拟服务器?3. LVS的三种模式工作原理和优缺点: Linux Virtual Server主要是在负载均衡器上实现的,负载均衡器是一台加了 LVS Patch的2.2.x版内核的Linux系统?LVS Patch可以通过重新编译内核的方法加入内核,也可以当作一个动态的模块插入现在的内核中?...
有没有朋友知道硬件负载均衡有哪些品牌?哪个品牌更好一些?
个人觉得还是F5这个品牌更好,F5是负载均衡的代名词,是行业老大,市场第一。
F5是全代理架构:确保最佳的应用可用性和性能-根据实时应用交付数据将用户定向到最佳地点;管理IPv4与IPv6服务的不兼容性和迁移-允许流量在不同网络拓扑之间自由流动和共存;满足未来业务要求-支持当前以及将来所有主要协议;优化性能并智能地路由流量-根据流量数据做出最佳的可用性决策。
他们还有先进的负载均衡与代理解决方案产品推荐:BIG-IP广域流量管理器,BIG-IP本地流量管理器。
功能比较强大,同时也有专门的售后服务团队,性能还比较好。
负载均衡和F5是什么意思?
展开全部 近年来,随着云计算与大数据的爆发式增长,众多大型数据中心都在积极部署或是升级负载均衡设备,以保障数据中心更加通畅可靠的运行。
然而,负载均衡作为一种集硬件设备和解决方案于一体的系统型产品,并不像服务器或是PC那样可通过配置参数来辨别,如何选购却让很多用户没有头绪。
那么,到底应该根据哪些因素来选择最适合型号?在一大堆厂商负载均衡设备参数中,究竟选择哪家的才适合产品?针对这诸多困扰的问题,不妨听听行业专家的建议。
据国内新兴应用交付企业太一星晨产品总监于振波介绍,要想选择一款合适的负载均衡产品,主要可通过三方面来考虑:一是产品的性能,二是其所开启的功能,三是如何满足现有和未来的需求。
针对具体的选择方法,于振波做出了更加详细的分析建议。
一.链路负载均衡的选择 在选择负载均衡产品之前,首先要明确这个产品的主要应用范围是链路负载还是服务器负载。
这两种场景的网络应用模式差异很大,将直接影响选型的参数。
在链路负载中,负载均衡的选型更多地接近于普通的网络设备。
一般情况下,网络显示出流量大,但新建并不高。
从上图可以看出,出口带宽已经达到1.5G,并发连接12万左右,设备每秒新建连接其实也就4000左右。
因此,在链路负载场景中,吞吐量是最重要的指标。
实际选择中,用户可以根据网络出口带宽、实际峰值流量来计算。
在链路部署中,负载均衡通过根据IP地址、协议类型做转发,主要工作在四层模式,因此用户可以根据四层吞吐量来选择合适的产品型号。
当然,如果设备上开启了根据应用协议的类型选路的功能,则需要考虑设备的七层吞吐量。
算法如下: 带宽(或峰值流量)* 150% + 未来带宽扩容计划 = 设备选型四层吞吐 例如:某集团出口带宽2G,峰值流量1.2G,未来可能会扩展到4G,此时选择链路负载的性能就应该是: 1.2 * 150% + 2 = 3.8Gbps 这就意味着,用户可以选择3.5-4G吞吐的产品。
现在,某些厂商的负载产品支持“按需负载”模式,支持该模式的负载产品,可以在不更换硬件的情况下,通过软件授权提升产品性能。
这种模式下,用户可以不考虑未来的扩容升级,只购买匹配当前流量的设备即可,避免了一次买过高性能设备的资金浪费,有效地保护了自己的投资。
需要注意的是,厂商标称吞吐量的方式并不相同,有些标注的是HTTP有效吞吐,有些则标称的是UDP吞吐。
标称UDP吞吐的值会更高一些,但无法真实反映产品实际处理能力。
所以,如果要通过UDP吞吐来选择产品,建议将所需要的值双倍、甚至三倍来计算最终需要的设备吞吐值。
在链路负载中,新建通常并不高,因此,在这里仅仅作为参考即可。
至于并发,以上图为例,实际流量1.5G的出口,并发连接数才12万个。
这对现在动辄百万级别的负载产品来说,意味着并发的问题基本不用考虑了。
二.服务器负载均衡的选择 如果说链路负载均衡主要了解吞吐就可以,但服务器负载则需要考虑得更多,它首先需要的是考虑访问的用户数。
对于服务器应用来说,其典型特点是,高新建、高并发、低流量。
例如,虽然不知道新建连接数,但用户数是可以了解的。
比如:某业务的用户数有1000人,根据业务性质估算出大概同时会有500人在线,再估计一下每个用户访问业务发起的连接数为20个(可以通过抓包查看),那最终该系统的负载设备新建连接选型就应该是: (1000/2*20)*1.5 + 未来扩容用户数(1000/2*20)= 2.5W 也就是说,首先要选择一个新建数不低于2.5W/S的负载设备。
在这个基础上,考虑下带宽就可以了。
需要注意的是:服务器负载要考虑负载设备上开启的业务,例如纯四层业务就只需要考虑四层新建,如果开启七层业务就要考虑七层新建。
如果开启对应的HTTP的缓存、压缩,那就要考虑负载设备上开启相应功能带来的性能损耗。
还有SSL卸载,如果有相应的业务开启,那么SSL新建、SSL吞吐的参数也要一并考虑。
有人说,负载均衡产品选型是“乱花渐欲迷人眼”,但如果真正了解了负载均衡产品性能参数的含义,做一个合适的选型其实并不难。