Tomcat集群配置学习篇-----分布式应用

现目前基于javaWeb开发的应用系统已经比比皆是,尤其是电子商务网站,要想网站发展壮大,那么必然就得能够承受住庞大的网站访问量;大家知道如果服务器访问量过大,就会出现服应用务器崩溃的情况,这个时候怎么办,难道就只能去重启服务器吗?好,如果是一般的小型公益网站到也无所谓,但如果是比如像大型航空公司售票等电子商务网站,每天每小时都有大量的订单业务,如果这些售票系统一旦崩溃后,再去重启,这些时间和客户的损失就直接会影响到航空公司的利益,这些损失如何去避免呢。

别担心,不管是目前IBM的webSphere还是大众化的tomcat服务器,都为我们提供了一种通用的解决方式,就是多台服务器来分担访问量,这样在一个服务器上的压力就会减小很多,你可以根据自己的需求去配置任意多的服务器来支撑你的应用系统,如果一台服务崩溃了,那么另外的应用服务器依然可以继续支持应用继续服务。多应用服务器的简单流程图大致如下:

为了实现这个原理我们就需要解决两个问题:

1:如何实现多应用服务器间的session共享:(一台服务器崩溃,另外一台服务器可以继续支持)

2:如何分发请求到各个应用服务器实现压力分解:(这里的解决方案是用apache做 web服务器)

下面我们就是实际行动来看看如何实现这种实现。

环境配置:

App应用服务器apache-tomcat-7.0.52-1

web服务器:apache的apache 2.0.55

java环境:jdk1.6

系统环境:winxp系统

1) web服务器配置

首先安装apache的web服务器:

apache服务器和tomcat的连接方法其实有三种:mod_JK、http_proxy和ajp_proxy。

一:软件环境
   1. Apache: apache 2.0.55 (由http://httpd.apache.org/进入下载)(点击下载apache 2.0.55)
   2. Tomcat: apache-tomcat-7.0.52-1
   3. mod_jk: 在页面 http://tomcat.apache.org/   Download 标题下找到 Tomcat Connectors 链接进入(点击下载mod_jk-apache-2.0.55.so),看起来像是个Unix/Linux下的动态库,实际应是个Win32 的 DLL 动态库,大概是为保持不同平台配置的一致性,才用了这个扩展名。

二:负载均衡
 用Apache进行分流,把请求按照权重以及当时负荷分tomcat1,tomcat2...去处理

1. 安装apache,tomcat
   我把Apache安装在D:/Apache Group/Apache2
  解压两分Tomcat, 分别在 D:/Apache Group/apache-tomcat-7.0.52-1,D:/Apache Group/apache-tomcat-7.0.52-1

2.修改Apache配置文件http.conf

在apache安装目录下conf目录中找到http.conf,在文件最后加上下面一句话就可以了

include conf/mod_jk.conf

3. http.conf 同目录下新建mod_jk.conf文件,内容如下

  1. #加载mod_jk Module
  2. LoadModule jk_module modules/mod_jk-apache-2.0.55.so
  3. #指定 workers.properties文件路径
  4. JkWorkersFile conf/workers.properties
  5. #指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器
  6. JkMount /*.jsp controller

如果还要指定*.do也进行分流就再加一行
JkMount /*.do controller

如果你想对所有的请求进行分流只需要写成
JkMount /* controller

4. 在http.conf同目录下新建 workers.properties文件

  1. worker.list = controller,tomcat1,tomcat2  #server 列表
  2. #========tomcat1========
  3. worker.tomcat1.port=8019       #ajp13 端口号,在tomcat下server.xml配置,默认8009
  4. worker.tomcat1.host=localhost  #tomcat的主机地址,如不为本机,请填写ip地址
  5. worker.tomcat1.type=ajp13
  6. worker.tomcat1.lbfactor = 1    #server的加权比重,值越高,分得的请求越多
  7. #========tomcat2========
  8. worker.tomcat2.port=8029       #ajp13 端口号,在tomcat下server.xml配置,默认8009
  9. worker.tomcat2.host=localhost  #tomcat的主机地址,如不为本机,请填写ip地址
  10. worker.tomcat2.type=ajp13
  11. worker.tomcat2.lbfactor = 2    #server的加权比重,值越高,分得的请求越多
  12. #========controller,负载均衡控制器========
  13. worker.controller.type=lb
  14. worker.controller.balanced_workers=tomcat1,tomcat2   #指定分担请求的tomcat
  15. worker.controller.sticky_session=1

5. 修改tomcat配置文件server.xml
如果你是水平集群,即在不同电脑上安装tomcat,tomcat的安装数量为一个,可以不必修改tomcat配置文件.我这里是在同一台电脑上安装两个tomcat,实现的是垂直集群方式,所以必须修改其中一个的设置,以避免端口冲突,按照参考文章是把原来以9开头的端口号改为以9开头端口号,但是在我机器上如果以9开头的端口号,例如9080、9082会与我的WebSphere Application Server配置冲突,所以我这里采取的策略是把原来端口号的第三位改为1,如8080改为8180。

打开tomcat2/conf/server.xml文件

1) 将关闭Tomcat的监听端口改成由8005改为8105
即把
 <Server port="8005" shutdown="SHUTDOWN">
改为
 <Server port="8105" shutdown="SHUTDOWN">

2) 把http服务端口号由8080改为8180
找到
 <!-- Define a non-SSL HTTP/1.1 Connector on port 8080 -->
    <CONNECTOR port="8080" 
把这里的8080改为8180

3) 把AJP端口号由8009改为8109
找到
 <!-- Define an AJP 1.3 Connector on port 8009 -->
    <CONNECTOR port="8009"
把这里的8009改为8109

4) 把 HTTP 代理端口从8082改为8182(这个配置默认是被注释掉的,可跳过这一步)
找到
<CONNECTOR port="8082"
把这里的8082改为8182

5) 编写一个测试 jsp
建立一个目录TestCluster,里面新建一个test.jsp,内容为

把TestCluster放到tomcat1,tomcat2的webapps下

6) 启动apache,tomcat1,tomcat2,进行测试
通过 http://localhost/TestCluster/test.jsp 访问,多刷新几次页面,查看Tomcat1和Tomcat2的窗口,你将可以看到打印了一行行"===========================",并且从统计上来说,大约在tomcat2打印的数量是在Tomcat1中的两倍,可以看到请求会被tomcat1,tomcat2按照不同的权重分流处理,实现了负载均衡。

作下面的集群配置,请在workers.properties把tomcat1和tomcat2的权重改为一样的,使请求较平均分配,将有便于看到实验的效果。

首先配置web应用服务器配置tomcat-A配置

1:修改tomcat的server.xml文件增加如下内容

贴出代码,方便复制:

  1. <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"
  2. channelSendOptions="6">
  3. <Manager className="org.apache.catalina.ha.session.BackupManager"
  4. expireSessionsOnShutdown="false"
  5. notifyListenersOnReplication="true"
  6. mapSendOptions="6"/>
  7. <Manager className="org.apache.catalina.ha.session.DeltaManager"
  8. expireSessionsOnShutdown="false"
  9. notifyListenersOnReplication="true"/>
  10. <Channel className="org.apache.catalina.tribes.group.GroupChannel">
  11. <Membership className="org.apache.catalina.tribes.membership.McastService"
  12. bind="127.0.0.1"
  13. address="228.0.0.4"
  14. port="45564"
  15. frequency="500"
  16. dropTime="3000"/>
  17. <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
  18. address="127.0.0.1"
  19. port="4001"
  20. selectorTimeout="100"
  21. maxThreads="6"/>
  22. <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
  23. <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
  24. </Sender>
  25. <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
  26. <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>
  27. <Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/>
  28. </Channel>
  29. <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
  30. filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>
  31. <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
  32. </Cluster>

备注:

1) App应用服务器tomcat-B配置和tomcat-A基本相同,但需要注意的是两台服务器如果在一个电脑上就需要注意端口的冲突问题,比如:tomcat-A的端口是8080,那么tomcat-B就是8081或者其他,其他的以此类推

我这里这里的端口配置如下:

tomcat-1:serverport:8081   ajp/1.3connector:8019  <Server port="8015" shutdown="SHUTDOWN">

tomcat-2:serverport:8082   ajp/1.3connector:8029  <Server port="8025" shutdown="SHUTDOWN">

2) 然后就是新建一个web应用测试一下,在新建应用的web.xml里面需要加上

<distributable/>

3) 到这里就可以测试你的配置了,先启动tomcat-1,然后启动tomcat-2,如果你在两个控制台里面看到类似的如下信息

证明两台应用服务器已经配置完成了。

4) 新建web应用,web.xml配置文件里面需要添加如下内容来配合实现session共享:

<distrbutable/>

然后将应用分别部署到两台服务器,启动两台应用服务器进行测试:

注:由于jsp自带session对象,所以在测试的时候最好把页面自带的session对象关闭后再测试,关闭代码<%@ page session="false"%>

Tomcat-A  index.jsp代码:

<body>

This is my JSP page.tomcat-A <br>

<%

HttpSession mysession = request.getSession(false);

if(mysession==null){

mysession = request.getSession(true);

mysession.setAttribute("appname","value-A");

out.println("new session:"+mysession.getId());

}else{

out.println("old session:"+mysession.getId());

}

out.println("appname="+mysession.getAttribute("appname"));

%>

</body>

Tomcat-B  index.jsp代码:

<body>

This is my JSP page.tomcat-B<br>

<%

HttpSession mysession = request.getSession(false);

if(mysession==null){

mysession = request.getSession(true);

mysession.setAttribute("appname","value-A");

out.println("new session:"+mysession.getId());

}else{

out.println("old session:"+mysession.getId());

}

out.println("appname="+mysession.getAttribute("appname"));

%>

</body>

5) 分别访问两台服务器:http://172.23.1.46:8081/mycluster

http://172.23.1.46:8082/mycluster分别访问得到结果如下就证明配置可以了。

访问8081服务器:

页面刷新后结果如下:

访问8082服务器:

页面刷新后结果如下:

到这里tomcat服务器就配置完成了,接下来就需要配置统一入口的负载均衡的web服务器,这里用的是apache 2.2.19(官网上可以直接下载)

近期由于公司项目,粗略研究了一下Apache配合tomcat构建一个能够实现负载均衡的分布式webserver集群,在这里与大家分享一下,有不对的地方大家及时指正。

所需资料:Apache2.4+ tomcat6.x(7.x)

一:Apache相关配置

Apache安装自行百度,非常简单。

主要配置:Apache/conf/httpd.conf

A:放开相关模块

将这个配置文件中的我们需要使用的功能模块解开注释,启动时才能加载

LoadModule proxy_modulemodules/mod_proxy.so

LoadModule proxy_ajp_modulemodules/mod_proxy_ajp.so

LoadModule proxy_balancer_modulemodules/mod_proxy_balancer.so//这个模块的是起负载均衡的核心模块

LoadModule proxy_connect_modulemodules/mod_proxy_connect.so

//以上是代理相关及ajp协议相关的功能模块,主要是在请求分发的过程中起作用

#LoadModule lbmethod_bybusyness_modulemodules/mod_lbmethod_bybusyness.so(按照繁忙程度,总是给活跃请求数最少的服务器)

LoadModule lbmethod_byrequests_module modules/mod_lbmethod_byrequests.so(按照请求次数)

#LoadModule lbmethod_bytraffic_modulemodules/mod_lbmethod_bytraffic.so(按照流量均衡)

//以上是不同的balance策略对应的模块,具体实现的算法,请自行百度(不建议深究实现算法,意义不大,学好剑法不一定要知道怎么打铁的)

B:配置均衡策略和地址

在配置文件的最后加上以下内容:

ProxyPass /balancer://proxy/ stickysession=JSESSIONID lbmethod=byrequests

<Proxybalancer://proxy>

BalancerMember ajp://127.0.0.1:10001/ loadfactor=3 route=137a

BalancerMember ajp://10.88.8.137:10001/ loadfactor=1 route=61a

BalancerMember ajp://10.88.8.137:10002/ loadfactor=1 route=61b status=+H

</Proxy>

 

解释:

ProxyPass / balancer://proxy/

ProxyPass / 表示所有以 “/” 开头的请求都适配proxy这个balance策略,标黄的部分是参数,是可变的,也就是说可以给不同的请求url匹配不同的均衡策略。

stickysession=JSESSIONIDlbmethod=byrequests

stickysession是说请求是否是session黏贴性的,就是当第一次请求负载后,以后的请求会按照session走,既同一个session的请求都访问一个webserver(tomcat),如果是PHP实现的后台服务,JSESESIONID需要变成PHPSESSIONID,lbmethod后的参数还可以是bybusyness、bytraffic

BalancerMember ajp://10.88.8.137:10001/ loadfactor=1 route=61a

这个配置是匹配不同的tomca,我这里使用3个tomcat,需要注意的是使用ajp协议(Apache使用这个协议实现的代理),端口是tomcat中ajp配置的端口 ,loadfactor后面的值是权值,负载均衡的时候会根据这个权值去分配(1-100)。Route是一个命名,如果仔细查看sessionid的话,你能看的这个路由信息会跟在sessionid后面。

Status=+H 表示10.88.8.137:10002这台server是热备服务器,正常业务不会分给它,但是一旦另外两台服务器down了,这台服务器就会被使用到。

二、Tomcat配置

主要是修改tomcat/conf/server.xml,这个文件我估计大家都不陌生,不再赘述,主要强调一下,除了修改server、http端口防止冲突意外,还要注意修改ajp的端口,和命名

一下是几个主要的配片段:

<Server port="9005" shutdown="SHUTDOWN">

<Connector port="8080" protocol="HTTP/1.1"

<Connector port="10001" protocol="AJP/1.3"redirectPort="8443" />

<!-- You should set jvmRoute to support load-balancing viaAJP ie :

<Engine name="Catalina"defaultHost="localhost" jvmRoute="jvm1">

-->

<Enginename="Catalina" defaultHost="localhost" jvmRoute="137a">

这里注意一下,jvmRoute就是上面Apache配置的route,这个要对应上,还有10001这个端口,也是在上面Apache配置BalanceMember的时候需要用的。

测试:在3个tomcat中建一个文件夹tomcat/webapps/test再建一个jsp文件,我附在附件中了,再不同浏览器通过访问Apache所在服务器的的地址/test/index.jsp会发现负载均衡的目的已经达到了。下面是我测试的截图,61.b是热备,所以正常的时候不会给它分配。主要的配置文件,我也附在附件中了。

apache + tomcat 负载均衡分布式集群配置的更多相关文章

  1. apache的tomcat负载均衡和集群配置 "

    略看了一下,感觉太复杂,要配置的东西太多,因此在这里写出一种更简洁的方法. 要集群tomcat主要是解决SESSION共享的问题,因此我利用memcached来保存session,多台TOMCAT服务 ...

  2. 基于apache的tomcat负载均衡和集群配置

    最近不是很忙,用零碎时间做点小小的实验. 以前公司采用F5负载均衡交换机,F5将请求转发给多台服务器,每台服务器有多个webserver实例,每个webserver分布在多台服务器,交叉式的分布集群. ...

  3. 使用apache和nginx代理实现tomcat负载均衡及集群配置详解

    实验环境: 1.nginx的代理功能 nginx proxy: eth0: 192.168.8.48 vmnet2 eth1: 192.168.10.10 tomcat server1: vmnet2 ...

  4. linux下一个apache+tomcat负载均衡和集群

    先说一下我的环境 一个ubuntu虚拟机, 一个apache2.2示例 两tomcat1.7示例 1.安装apacheserver sudo apt-get install apache2 假设要重新 ...

  5. 基于apache的tomcat负载均衡和集群配置session共享

    接上面的话题接着继续完善.为什么没接到上篇呢?原因很简单太长的文章不爱看!就像有人写了上千行的方法一样,不是逼得没办法谁爱看谁看,反正我不看. 期间我没有一次配置成功,从失败的开始说起, 1.准备ja ...

  6. 基于nginx的tomcat负载均衡和集群

    要集群tomcat主要是解决SESSION共享的问题,因此我利用memcached来保存session,多台TOMCAT服务器即可共享SESSION了. 你可以自己写tomcat的扩展来保存SESSI ...

  7. 基于Apache的Tomcat负载均衡和集群(2)

    反向代理负载均衡 (Apache+JK+Tomcat) 使用代理服务器可以将请求转发给内部的Web服务器,让代理服务器将请求均匀地转发给多台内部Web服务器之一上,从而达到负载均衡的目的.这种代理方式 ...

  8. Linux下Apache与Tomcat的完全分布式集群配置(负载均衡)

    最近公司要给客户提供一套集群方案,项目组采用了Apache和Tomcat的集群配置,用于实现负载均衡的实现. 由于以前没有接触过Apache,因此有些手生,另外在网上搜寻了很多有关这方面的集群文章,但 ...

  9. 基于mod_proxy+Apache 2.2.16+Tomcat 7的负载均衡与集群配置

    第一章. 背景简介 对于大多数企业应用,都希望能做到7*24小时不间断运行.要保持如此高的可用性并非易事,比较常见的做法是将系统部署到多台机器上,每台机器都对外提供同样的功能,这就是集群.系统变为集群 ...

随机推荐

  1. Visual Studio中用于ASP.NET Web项目的Web服务器

    当您在 Visual Studio 中开发 Web 项目时,需要 Web 服务器才能测试或运行它们. 利用 Visual Studio,您可以使用不同的 Web 服务器进行测试,包括 IIS Expr ...

  2. Linux上SFTP用法

    SFTP简介 sftp是一个交互式的文件传输协议,类似于ftp,但它进行加密传输,比ftp更安全. SFTP用法 localhost 从远程主机获取文件或目录到本地目录下 sftp>get /h ...

  3. ROS创建工作空间

    1.$mkdir catkin_ws && cd catkin_ws && mkdir src 2.$catkin_make   (#这一句是完成编译初始化,注意括号内 ...

  4. NSRegularExpression iOS自带的正则表达式

    以前做验证邮箱,电话号码的时候通常用第三方的正则表达式或者NSPredicate(点这里查看以前的文章),在后期,苹果推出了自己的正则表达式来提供给开发者调用,很方便,功能也强大. 具体可以查看官方文 ...

  5. review41

    套接字是基于TCP协议的网络通信. 基于UDP

  6. java: InputStreamReader将字节的输入流变成字符的输入流,OutputStreamWriter将字符的输出流变成字节的输出流

    InputStreamReader:将字节的输入流变成字符的输入流, OutputStreamWriter:将字符的输出流变成字节的输出流 //将缓冲区的内容读取,可以一次读取 //可以接收键盘的输入 ...

  7. C语言基础三

    C--数组 一维数组的定义和引用 定义:类型说明符 数组名[常量表达式] int a[ 10 ];他表示定义了一个整形数组,数组名为a,有10个元素. 注意:C语言不允许对数组的大小做动态定义. 一维 ...

  8. ural 2013 Neither shaken nor stirred

    2013. Neither shaken nor stirred Time limit: 1.0 secondMemory limit: 64 MB The ACM ICPC regional con ...

  9. JAVA常见函数

    输入函数 : Scanner cin=new Scanner(System.in); int a=cin.nextInt();    //输入一个int数据 double dl=cin.nextDou ...

  10. 条款50:使用自定义的new以及delete的时机会

    几种最常见的这么做的理由:     1.用来检测运行上的错误:可以在分配的内存空间的起始以及结束分别放置单独的签名     2.为了强化性能     3.为了收集使用上的统计数据 按照第一点就可以举一 ...