当前位置:  技术问答>linux和unix

小女子关于群集和分析监测一问!

    来源: 互联网  发布时间:2014-12-19

    本文导语:  能较纤细的介绍群集,解决方案,案例. 分析监测技术! 亟待解决,在线马上结帖! | 哈哈!! ===============Look! 按照侧重点的不同,可以把Linux集群分为三类。一类是高可用性集群,运行于两个或多个...

能较纤细的介绍群集,解决方案,案例.
分析监测技术!
亟待解决,在线马上结帖!

|
哈哈!!
===============Look!

按照侧重点的不同,可以把Linux集群分为三类。一类是高可用性集群,运行于两个或多个节点上,目的是在系统出现某些故障的情况下,仍能继续对外提供服务。高可用性集群的设计思想就是要最大限度地减少服务中断时间。这类集群中比较著名的有Turbolinux TurboHA、Heartbeat、Kimberlite等。第二类是负载均衡集群,目的是提供和节点个数成正比的负载能力,这种集群很适合提供大访问量的Web服务。负载均衡集群往往也具有一定的高可用性特点。Turbolinux Cluster Server、Linux Virtual Server都属于负载均衡集群。另一类是超级计算集群,按照计算关联程度的不同,又可以分为两种。一种是任务片方式,要把计算任务分成任务片,再把任务片分配给各节点,在各节点上分别计算后再把结果汇总,生成最终计算结果。另一种是并行计算方式,节点之间在计算过程中大量地交换数据,可以进行具有强耦合关系的计算。这两种超级计算集群分别适用于不同类型的数据处理工作。有了超级计算集群软件,企业利用若干台PC机就可以完成通常只有超级计算机才能完成的计算任务。这类软件有Turbolinux EnFusion、SCore等。 

  高可用性集群与负载均衡集群的工作原理不同,适用于不同类型的服务。通常,负载均衡集群适用于提供静态数据的服务,如HTTP服务;而高可用性集群既适用于提供静态数据的服务,如HTTP服务,又适用于提供动态数据的服务,如数据库等。高可用性集群之所以能适用于提供动态数据的服务,是由于节点共享同一存储介质,如RAIDBox。也就是说,在高可用性集群内,每种服务的用户数据只有一份,存储在共用存储设备上,在任一时刻只有一个节点能读写这份数据。

|
========Look Again
高可用性集群对一种服务而言不具有负载均衡功能,它可以提高整个系统的可靠性,但不能增加负载的能力。当然,高可用性集群可以运行多种服务,并适当分配在不同节点上,比如节点A提供Oracle服务,同时节点B提供Sybase服务,这也可以看成是某种意义上的负载均衡,不过这是对多种服务的分配而言。 

  负载均衡集群适用于提供相对静态的数据的服务,比如HTTP服务。因为通常负载均衡集群的各节点间通常没有共用的存储介质,用户数据被复制成多份,存放于每一个提供该项服务的节点上。 

下面以Turbolinux Cluster Server为例简要介绍一下负载均衡集群的工作机制。在集群中有一个主控节点,称为高级流量管理器(ATM)。假设这一集群仅被用来提供一项HTTP服务,其余各节点均被设定为HTTP的服务节点。用户对于页面的请求全部发送到ATM上,因为ATM上绑定了这项服务对外的IP地址。ATM把接受到的请求再平均发送到各服务节点上,服务节点接收到请求之后,直接把相应的Web页面发送给用户。这样一来,假如在1秒内有1000个HTTP页面请求,而集群中有10个服务节点,则每个节点将处理100个请求。这样,在外界看来,好象有一台10倍速度的高速计算机在处理用户的访问。这也就是真正意义上的负载均衡。 

  但是ATM要处理所有1000个页面请求,它会不会成为集群处理速度的瓶颈呢?由于对于页面的请求的数据量相对较少,返回页面内容的数据量相对较大,因此这种方式还是很有效率的。ATM发生故障,也不会导致整个系统无法工作。Turbolinux Cluster Server可以设置一台或多台计算机为后备ATM节点,当主ATM节点故障时,在后备ATM中会产生出一个新的主ATM,接替它的工作。可以看出,这种负载均衡集群也具有一定的高可用性。 

  HTTP页面相对是静态的,但有时也需要改动。Turbolinux Cluster Server提供了数据同步工具,可以很方便的把对页面的改动同步到所有提供该项服务的节点上。 

  下面介绍一下对于高可用性集群与负载均衡集群的组合使用。如果用户有一个由两个节点组成的最小集群,是否可以同时获得高可用性集群和负载均衡集群的效益呢?答案是肯定的。由于高可用性集群适用于提供动态数据的服务,而负载均衡集群适用于提供静态数据的服务,所以我们不妨假设要同时提供Oracle和HTTP服务。用户要在节点A和B上安装TurbolinuxTurboHA和TurbolinuxClusterServer软件。把节点A作为Oracle正常工作的节点,节点B作为Oracle服务的后备节点,这是对TurboHA软件而言。对于ClusterServer软件而言,要设置节点B为主ATM节点,节点A为后备ATM节点,而节点A和节点B同时又都是HTTP的服务节点。 

  这样一来,节点A和节点B都是身兼两职,而用户同时得到了一个具有高可用性的Oracle服务和一个具有负载均衡功能的HTTP服务。即使有一个节点发生故障,Oracle服务和HTTP服务都不会因此而中断。 

  但对于同一种服务,是不能同时获得高可用性与负载均衡能力的。对一种服务,要么是只有一份数据,放在共用存储设备上,一次被一个节点访问,获得高可用性;要么是把数据复制为多份,存储于每个节点的本地硬盘上,用户的请求同时发送到多个节点上,获得负载均衡能力。 

  对于高可用性集群,由于它在设计时的目的就是为了最大可能地减少服务中断时间,因此服务的切换受到很大的关注。当一个节点上的服务故障时,会被很快地检测到并被切换到其他节点上。但在切换时,不能忽略对数据完整性的保护。 

  在什么情况下数据完整性会被破坏呢?由于高可用性集群中至少有两个节点,连接在一个共用的存储设备上,对于非裸分区而言,如果被两个节点同时读写,就会造成文件系统被破坏。因此就需要利用I/O屏障来防止这一事件的发生。 

  I/O屏障的目的是为了保证故障节点不能再继续读写某一服务的共用分区,实现的方式有多种。Kimberlite使用硬件开关来实现,当一个节点发生故障时,另一节点如果能侦测到,就会通过串行口发出命令,控制连接在故障节点电源上的硬件开关,通过暂时断电,而后又上电的方式使得故障节点被重启动。 

  I/O屏障有多种形式。对于支持SCSI Reserve/Release命令的存储设备,也可以用SG命令实现I/O屏障。正常节点应使用SCSI Reserve命令“锁住”共用存储设备,保证其不被故障节点读写。如果故障节点上的集群软件仍在运行,如发现共用存储设备已被对方锁住,就应把自己重启动,以恢复正常工作状态。 

  以上介绍了Linux集群技术的基本原理,也介绍了几种著名的软件。总之,Linux集群技术最大的发挥了PC机和网络的优势,可以带来可观的性能,是一种大有前途的技术.

|

Linux上的集群及其配置实例     
  
http://www.chinahrb.com/ 2002-08-24 20:03:00 浏览 30 次    
 
内容: 

  集群和Linux上的集群解决方案 

  LVS 简介 

  LVS 配置实例 

  LVS 的测试 

  调试技巧 

  一 集群和Linux上的集群解决方案 

  集群系统(Cluster)主要解决下面几个问题: 

   高可靠性(HA)。利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。 

   高性能计算(HP)。即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析,化学分析等。 

   负载平衡。即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。 

   基于Linux的集群解决方案可谓百花齐放,具体请参见Linux 集群系统大比拼 

   在实际应用中,最常见的情况是利用集群解决负载平衡问题,比如用于提供WWW服务。在这里主要展示如何使用LVS(Linux Virtial Server)来实现实用的WWW负载平衡集群系统。 

  二 LVS简介 

   LVS是章文嵩博士发起和领导的优秀的集群解决方案,许多商业的集群产品,比如RedHat的Piranha,TurboLinux公司的Turbo Cluster等,都是基于LVS的核心代码的。在现实的应用中,LVS得到了大量的部署,请参考http://www.linuxvirtualserver.org/deployment.html 

  关于Linux LVS的工作原理和更详细的信息,请参考http://www.linuxvirtualserver.org。 

  三 LVS配置实例 

   通过Linux LVS,实现WWW,Telnet服务的负载平衡。这里实现Telnet集群服务仅为了测试上的方便。 

   LVS有三种负载平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最为常用的是DR方式,因此这里只说明DR(Direct Routing)方式的LVS负载平衡。 

  网络拓扑结构。 

   如图1所示,为测试方便,4台机器处于同一网段内,通过一交换机或者集线器相连。实际的应用中,最好能将虚拟服务器vs1和真实服务器rs1, rs2置于于不同的网段上,即提高了性能,也加强了整个集群系统的安全性。 

  服务器的软硬件配置 

   首先说明,虽然本文的测试环境中用的是3台相同配置的服务器,但LVS并不要求集群中的服务器规格划一,相反,可以根据服务器的不同配置和负载情况,调整负载分配策略,充分利用集群环境中的每一台服务器。 

   这3台服务器中,vs1作为虚拟服务器(即负载平衡服务器),负责将用户的访问请求转发到集群内部的rs1,rs2,然后由rs1,rs2分别处理。 

   client为客户端测试机器,可以为任意操作系统。 

   4台服务器的操作系统和网络配置分别为: 


vs1: RedHat 6.2, Kernel 2.2.19 
vs1: eth0 192.168.0.1 
vs1: eth0:101 192.168.0.101 
rs1: RedHat 6.2, Kernel 2.2.14 
rs1: eth0 192.168.0.3 
rs1: dummy0 192.168.0.101 
rs2: RedHat 6.2, Kernel 2.2.14 
rs2: eth0 192.168.0.4 
rs2: dummy0 192.168.0.101 
client: Windows 2000 
client: eth0 192.168.0.200 
其中,192.168.0.101是允许用户访问的IP。 



  虚拟服务器的集群配置 

  大部分的集群配置工作都在虚拟服务器vs1上面,需要下面的几个步骤: 

  重新编译内核。 

   首先,下载最新的Linux内核,版本号为2.2.19,下载地址为:http://www.kernel.org/,解压缩后置于/usr/src/linux目录下。 

  其次需要下载LVS的内核补丁,地址为:http://www.linuxvirtualserver.org/software/ipvs-1.0.6-2.2.19.tar.gz。这里注意,如果你用的Linux内核不是2.2.19版本的,请下载相应版本的LVS内核补丁。将ipvs-1.0.6-2.2.19.tar.gz解压缩后置于/usr/src/linux目录下。 

   然后,对内核打补丁,如下操作: 


[root@vs2 /root]# cd /usr/src/linux 
[root@vs2 linux]# patch -p1  * [*]Prompt for development and/or incomplete code/drivers 

  2 Networking部分: 


[*] Kernel/User netlink socket 
[*] Routing messages 
 Netlink device emulation 
* [*] Network firewalls 
[*] Socket Filtering 
 Unix domain sockets 
* [*] TCP/IP networking 
[*] IP: multicasting 
[*] IP: advanced router 
[ ] IP: policy routing 
[ ] IP: equal cost multipath 
[ ] IP: use TOS value as routing key 
[ ] IP: verbose route monitoring 
[ ] IP: large routing tables 
[ ] IP: kernel level autoconfiguration 
* [*] IP: firewalling 
[ ] IP: firewall packet netlink device 
* [*] IP: transparent proxy support 
* [*] IP: masquerading 
--- Protocol-specific masquerading support will be built as modules. 
* [*] IP: ICMP masquerading 
--- Protocol-specific masquerading support will be built as modules. 
* [*] IP: masquerading special modules support 
* IP: ipautofw masq support (EXPERIMENTAL)(NEW) 
* IP: ipportfw masq support (EXPERIMENTAL)(NEW) 
* IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW) 
* [*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW) 
[*] IP Virtual Server debugging (NEW)  /proc/sys/net/ipv4/ip_always_defrag 
# 显示最多调试信息 
echo 10 > /proc/sys/net/ipv4/vs/debug_level 



   配置NFS服务。这一步仅仅是为了方便管理,不是必须的步骤。 

  假设配置文件lvs.conf文件放在/etc/lvs目录下,则/etc/exports文件的内容为: 


/etc/lvs ro(rs1,rs2) 



  然后使用exportfs命令输出这个目录: 


[root@vs2 lvs]# exportfs 



  如果遇到什么麻烦,可以尝试: 


[root@vs2 lvs]# /etc/rc.d/init.d/nfs restart 
[root@vs2 lvs]# exportfs 



   这样,各个real server可以通过NFS获得rc.lvs_dr文件,方便了集群的配置:你每次修改lvs.conf中的配置选项,都可以即可反映在rs1,rs2的相应目录里。 

   修改/etc/syslogd.conf,增加如下一行: kern.* /var/log/kernel_log 

  这样,LVS的一些调试信息就会写入/var/log/kernel_log文件中. 

  real server的配置 

   real server的配置相对简单,主要是是以下几点: 

  配置telnet和WWW服务。telnet服务没有需要特别注意的事项,但是对于www服务,需要修改httpd.conf文件,使得apache在虚拟服务器的ip地址上监听,如下所示: 


Listen 192.168.0.101:80 



   关闭real server上dummy0的arp请求响应能力。这是必须的,具体原因请参见 ARP problem in LVS/TUN and LVS/DR关闭dummy0的arp响应的方式有多种,比较简单地方法是,修改/etc/rc.d/rc.local文件,增加如下几行: 


echo 1 > /proc/sys/net/ipv4/conf/all/hidden 
ifconfig dummy0 up 
ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168. 0.0 up 
echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden 
再次修改/etc/rc.d/rc.local,增加如下一行:(可以和步骤2合并) 
echo 1 > /proc/sys/net/ipv4/ip_forward 



  四 LVS的测试 

   好了,经过了上面的配置步骤,现在可以测试LVS了,步骤如下: 

  分别在vs1,rs1,rs2上运行/etc/lvs/rc.lvs_dr。注意,rs1,rs2上面的/etc/lvs目录是vs2输出的。如果您的NFS配置没有成功,也可以把vs1上/etc/lvs/rc.lvs_dr复制到rs1,rs2上,然后分别运行。确保rs1,rs2上面的apache已经启动并且允许telnet。 

   然后从client运行telnet 192.168.0.101,如果登录后看到如下输出就说明集群已经开始工作了:(假设以guest用户身份登录) 


[guest@rs1 guest]$-----------说明已经登录到服务器rs1上。 



  再开启一个telnet窗口,登录后会发现系统提示变为: 


[guest@rs2 guest]$-----------说明已经登录到服务器rs2上。 



  然后在vs2上运行如下命令: 


[root@vs2 /root]ipvsadm 



  运行结果应该为: 


IP Virtual Server version 1.0.6 (size=4096) 
Prot LocalAddress:Port Scheduler Flags 
-> RemoteAddress:Port Forward Weight ActiveConn InActConn 
TCP 192.168.0.101:telnet rr 
-> rs2:telnet Route 1 1 0 
-> rs1:telnet Route 1 1 0 
TCP 192.168.0.101:www rr 
-> rs2:www Route 1 0 0 
-> rs1:www Route 1 0 0 



   至此已经验证telnet的LVS正常。 

   然后测试一下WWW是否正常:用你的浏览器查看http://192.168.0.101/是否有什么变化?为了更明确的区别响应来自那个real server,可以在rs1,rs2上面分别放置如下的测试页面(test.html): 




我是real server #1 or #2 





   然后刷新几次页面(http://192.168.0.101/test.html),如果你看到“我是real server #1”和“我是real server #2”交替出现,说明www的LVS系统已经正常工作了。 

   但是由于Internet Explore 或者Netscape本身的缓存机制,你也许总是只能看到其中的一个。不过通过ipvsadm还是可以看出,页面请求已经分配到两个real server上了,如下所示: 


IP Virtual Server version 1.0.6 (size=4096) 
Prot LocalAddress:Port Scheduler Flags 
-> RemoteAddress:Port Forward Weight ActiveConn InActConn 
TCP 192.168.0.101:telnet rr 
-> rs2:telnet Route 1 0 0 
-> rs1:telnet Route 1 0 0 
TCP 192.168.0.101:www rr 
-> rs2:www Route 1 0 5 
-> rs1:www Route 1 0 4 



   或者,可以采用linux的lynx作为测试客户端,效果更好一些。如下运行命令: 

  [root@client /root]while true; do lynx -dump http://10.64.1.56/test.html; sleep 1; done 

   这样,每隔1秒钟“我是realserver #1”和“我是realserver #2”就交替出现一次,清楚地表明响应分别来自两个不同的real server。 

  五 调试技巧 

   如果您的运气不好,在配置LVS的过程中也许会遇到一些困难,下面的技巧或许有帮助: 

   首先确定网络硬件没有问题,尤其是网线,ping工具就足够了。 

   使用netstat查看端口的活动情况。 

   使用tcpdump查看数据包的流动情况。 

   查看/var/log/kernel_log文件。 

  关于作者 

   宿宝臣(linuxman@263.net),1992年毕业于山东工程学院电气技术专业,1997年毕业于上海交通大学自动化系,获硕士学位,现供职于山东工程学院。自接触Linux后,顿感相见恨晚,一见钟情,一发而不可收拾。现主要研究Linux, Java及其在WEB上的应用,尤其熟悉Enhydra的体系结构和程序设计,企望有机会和同道者多多交流。 
=======================
penghuai@mai.china.com
一次偶然的机会搜集,较多的,较新的,群集分析监测资料:)
记者给分给分给分给分给分给分给分啊!
======================

    
 
 

您可能感兴趣的文章:

  • 小女子向各位高手求助,关于unistd.h
  • 小女子我又回来问问题了!!!!!
  • 小女子向高手请教:显示再线用户的问题!
  • 小女子刚刚装上jb6 但编辑器好像有点问题,插入点不能正确定位,请教各位大哥。:)
  • 小女子请求各位帮忙,为什么读取不了sql server 2000的image字段?
  • 小女子菜鸟又有礼了:启动tomcat4.0时出现 Address in use:8080的提示信息。。。
  • 小女子很菜,请哪位好心人帮忙
  • 小菜鸟哭问:关于在LINUX写文件的问题。请大虾们解答!!!小女子这厢有礼了!
  • 小女子为职场新人,现被分配做wifi的移植,有一问题不懂,请高手指点,急!在线等
  • SOS!!!救救小女子一命!!…… 有谁知道java语言中的PDF开发包?
  • 经理逼我学UNIX,可我又不知从何下手。。小女子向各位讨教了。。。
  • 小女子也想玩玩Linux,初玩是用中文版的还是英文版的比较合适?
  • 有谁知道csdn上的短消息是怎么做的!急!!!小女子在此先谢了
  • 程序更新的问题!!!很奇怪!!!急!那位仁兄帮帮小女子吧!!!!!!!:`(
  • 怎样编写系统引导程序?小女子求各位帮忙!!
  • 寻求有关通讯的源代码,可以发到我油箱june37@163.com,小女子先谢谢了!100分
  • 小女子求教!对您可能非常easy的问题!
  • [急!急!急]小女子 刚刚 碰到 LINUX红帽 安装的困难。希望各位 哥哥 姐姐 帮帮我。
  • 急,请教各位几个问题,小女子先谢过了,):
  • 如何搭建一个html服务器,在LINUX上??(小女子在线等待)
  •  
    本站(WWW.)旨在分享和传播互联网科技相关的资讯和技术,将尽最大努力为读者提供更好的信息聚合和浏览方式。
    本站(WWW.)站内文章除注明原创外,均为转载、整理或搜集自网络。欢迎任何形式的转载,转载请注明出处。












  • 相关文章推荐


  • 站内导航:


    特别声明:169IT网站部分信息来自互联网,如果侵犯您的权利,请及时告知,本站将立即删除!

    ©2012-2021,,E-mail:www_#163.com(请将#改为@)

    浙ICP备11055608号-3