光电工程师社区
标题:
服务器十大流行技术
[打印本页]
作者:
suncon
时间:
2003-8-30 10:47
标题:
服务器十大流行技术
[分享]服务器十大流行技术
集群(Cluster)技术
集群技术是近几年新兴起的一项高性能计算技术。它是将一组相互独立的计算机通过高速的通信网络而组成的一个单一的计算机系统,并以单一系统的模式加以管理。其出发点是提供高可靠性、可扩充性和抗灾难性。
一个服务器集群包含多台拥有共享数据存储空间的服务器,各服务器之间通过内部局域网进行相互通信;当其中一台服务器发生故障时,它所运行的应用程序将由其他的服务器自动接管;在大多数情况下,集群中所有的计算机都拥有一个共同的名称,集群系统内任意一台服务器都可被所有的网络用户所使用。
在集群系统中运行的服务器并不一定是高档产品,但服务器的集群却可以提供相当高性能的不停机服务;每一台服务器都可承担部分计算任务,并且由于群集了多台服务器的性能,因此,整体系统的计算能力将有所提高;同时,每台服务器还能承担一定的容错任务,当其中某台服务器出现故障时,系统可以在专用软件的支持下将这台服务器与系统隔离,并通过各服务器之间的负载转移机制实现新的负载平衡,同时向系统管理员发出报警信号。
集群系统通过功能整合和故障过渡技术实现系统的高可用性和高可靠性,集群技术还能够提供相对低廉的总体拥有成本和强大灵活的系统扩充能力。
SMP(Symmetric Multi-Processing)技术
即对称多处理,是指在一个计算机上汇集了一组处理器(多CPU)。各CPU之间共享内存子系统以及总线结构。虽然同时使用多个CPU,但是从管理的角度来看,它们的表现就像一台单机一样。系统将任务队列对称地分布于多个CPU之上,从而极大地提高了整个系统的数据处理能力。随着用户应用水平的提高,只使用单个的处理器确实已经很难满足实际应用的需求,因而各服务器厂商纷纷通过采用对称多处理系统来解决这一矛盾。PC服务器中最常见的对称多处理系统通常采用2路、4路、6路或8路处理器。目前UNIX服务器可支持最多64个CPU的系统,如Sun 公司的产品Enterprise 10000。SMP系统中最关键的技术是如何更好地解决多个处理器的相互通讯和协调问题。
NUMA(Non-Uniform Memory Access)分布式内存存取
在高性能计算领域,目前一种被各厂商广泛采用的新技术是NUMA。它的思路是将SMP和群集的优势结合起来。它是由若干通过高速专用网络连接起来的独立节点所构成的系统,各个节点可以是单个的CPU或是一个SMP系统。这一技术是对传统Intel的SMP系统的一种改进。传统的基于Intel的SMP系统常常会因共享内存总线上的数据过于拥挤而导致数据阻塞。在一般情况下,它们无法容纳16 ~32个处理器。而如果采用NUMA 技术, 每一Intel 处理器都将拥有其自己的局部内存, 并能够形成与其它芯片中的内存静态或动态的连接。NUMA服务器可容纳64 或64个以上 的处理器。NUMA体系结构的机器从内部看,整体上是分布内存式的,但是由于它的传输通道速度非常高,所以用户用起来就像是共享内存式的机器一样。它的价格介于SMP系统和群集系统之间。最初NUMA技术是建立在采用专用的IRIX操作系统和MIPS处理器之上的,而现今该项技术已经被越来越多的厂商所采用。
ISC(Intel Server Control)Intel服务器控制
ISC是一种网络监控技术,只适用于使用Intel架构的带有集成管理功能主板的服务器。采用这种技术后,用户在一台普通的客户机上,就可以监测网络上所有使用Intel 主板的服务器,监控和判断服务器是否“健康”。一旦服务器中机箱、电源、风扇、内存、处理器、系统信息、温度、电压或第三方硬件中的任何一项出现错误,就会报警提示管理人员。值得一提的是,监测端和服务器端之间的网络可以是局域网也可以是广域网,可直接通过网络对服务器进行启动、关闭或重新置位,极大地方便了管理和维护工作。
EMP(Emergency Management Port)应急管理端口
EMP是服务器主板上所带的一个用于远程管理服务器的接口。远程控制机可以通过Modem与服务器相连,控制软件安装于控制机上。远程控制机通过EMP Console控制界面可以对服务器进行下列工作:
A.打开或关闭服务器的电源。
B.重新设置服务器,甚至包括主板BIOS和CMOS的参数。
C.监测服务器内部情况:如温度、电压、风扇情况等。
以上功能可以使技术支持人员在远地通过Modem和电话线及时解决服务器的许多硬件故障。这是一种很好的实现快速服务和节省维护费用的技术手段。通过ISC和EMP两种技术可以实现对服务器的远程监控管理。
RAID(Redundant Array of Independent Disks)廉价冗余磁盘阵列
由于磁盘的存取速度跟不上CPU的处理速度,从而使磁盘成为提高服务器I/O能力的一个瓶颈。为解决计算机CPU的高速和磁盘的低速之间日益加剧的矛盾,1987年美国加利福尼亚大学伯克利分校的David.A.Pattorson教授等人提出了RAID的概念。 其技术思想是:利用现有的小型廉价磁盘,把多个磁盘按一定的方法组成一个磁盘阵列,通过一些硬件技术和一系列的调度算法,使得整个磁盘阵列对用户来说,就像是在使用一个容量很大、而可靠性和速度非常高的大型磁盘。
RAID技术采用若干硬磁盘驱动器按照一定要求组成一个整体,整个磁盘阵列由阵列控制器管理。磁盘阵列有许多特点:首先,提高了存储容量;其次,多台磁盘驱动器可并行工作,提高了数据传输率;第三,由于有校验技术,提高了可靠性:如果阵列中有一台硬磁盘损坏,利用其它盘可以重新恢复出损坏盘上原来的数据,而不影响系统的正常工作,并可以在带电状态下更换已损坏的硬盘(即热插拔功能),阵列控制器会自动把重组数据写入新盘,或写入热备份盘而将新盘用做新的热备份盘;另外磁盘阵列通常配有冗余设备,如电源和风扇,以保证磁盘阵列的散热和系统的可靠性。
目前常用的RAID类型可分为:RAID0、RAID1、RAID3、RAID5等 。
I2C(inter-integrated circuit)总线
I2C总线是一种由飞利浦公司开发的串行总线,产生于80年代,最初为音频和视频设备开发,而如今主要在服务器管理中使用。I2C总线包括一个两端接口,通过一个带有缓冲区的接口,数据可以被I2C发送或接受。控制和状态信息则通过一套内存映射寄存器来传送。利用I2C硬件总线技术可以对服务器的所有部件进行集中管理,可随时监控内存、硬盘、网络、系统温度等多个参数,增加了系统的安全性,方便了管理。
I2C总线最主要的优点是其简单性和有效性。由于接口直接在组件之上,因此I2C总线占用的空间非常小,从而减少了电路板的空间和芯片管脚的数量,进而降低了互联成本。总线的长度可高达25英尺,并且能够以10Kbps的最大传输速率支持40个组件。I2C总线的另一个优点是,它支持多主控(multi-mastering),其中任何能够进行发送和接收的设备都可以成为主总线。一个主总线能够控制信号的传输和时钟频率。自然,在任何时间点上只能有一个主总线。
智能输入/输出(Intelligent I2O)技术
多处理器通信和协调技术
企业级PC服务器大都为多处理器结构,这样多处理器之间的通信与协调就十分重要。采用多处理器通信和协调技术后,PC服务器可将超过四个以上的处理器群分为多个组,每个处理器组都配有一个高速缓存系统,通过对缓存映射结构的一致性检验,从而保证在计算过程中每组处理器中内置的高速缓存信息和内存中相应信息的一致性。为保证系统间的高速通信,采用这种技术的系统内部还普遍采取了高速交换模块的设计思想,使得系统中每组处理器都能够独占一个100MHz的系统总线。在有的系统内部还采用了多个独立的内存板,每个内存板占据一个单独的100MHz系统总线,在这些内存板、多组处理器模块和I/O总线之间又采用一个高速的交换式总线系统,以保证其中任一组设备之间均可以100MHz的高速率进行通信传输,从而使整个系统的传输带宽达到较高水平。这些措施不仅有效地解决了传统的多处理器系统中的传输带宽瓶颈的问题,从而极大地提高了系统的整体性能表现,并且还为系统群集提供了平稳的升级方案,为企业的关键性运算提供性能更高、可用性更好的硬件平台。
热插拔(Hot Swap)
热插拔功能就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件,从而提高了系统对灾难的及时恢复能力、扩展性和灵活性等,例如一些面向高端应用的磁盘镜像系统都可以提供磁盘的热插拔功能。如果没有热插拔功能,即使磁盘损坏不会造成数据的丢失,用户仍然需要暂时关闭系统,以便能够对硬盘进行更换,而使用热插拔技术只要简单的打开连接开关或者转动手柄就可以直接取出硬盘,而系统仍然可以不间断地正常运行。
对于一些应用于关键任务的服务器,由于可以在不停机的情况下更换损坏的RAID卡或以太网卡等,从而大大地减少了由于硬件故障而造成的系统停机时间。
作者:
suncon
时间:
2003-8-30 10:51
标题:
服务器十大流行技术
宽带魅力无限,千兆网络离我们还有多远?
以太网从最初区区不到十兆字节,发展到万兆乃至十几、几十万兆。以太网的发展,不仅改变了本身,成为局域网的首选技术,也改变了整个社会。
千兆以太网到桌面的延伸将是革命性的,它的出现将使过去设想中的许多应用破天荒地得以实现。归纳其背后的原因,主要是需求、技术、价格三个方面的因素。
需求的呼唤
目前,随着网络体系结构的改善和功能的增强,桌面PC和应用将变得越来越先进。但是,大量的应用带来大量的流量。无论用户是否有所意识,他们每天都会用到组播或视频点播、带大附件的电子邮件、文件传输器、按需备份和恢复、CRM/ERP以及Web和Java工具等。每个人都有自己独特的应用,要求不同的流量形式和带宽。将这些应用的流量集中起来,然后乘以工作组、部门、楼层和布线室的用户数量,可以想象这些应用需要多少带宽,这些流量将对网络产生多大的压力;如果使用10Mbps或100Mbps网络产品,最终用户需要等待多长时间,才能获得每种应用需要的信息。这样,网络性能和工作效率都会下降,就需要有更高的带宽来分配各种流量。因此,只有将千兆位以太网延伸到桌面才能满足这些应用。
集成了千兆网卡的主板能否作为千兆网络的强心针?
技术的推动
需求是推动市场的主要动力,但技术的驱动力同样不可以小看。1000Base-T的建立为千兆到桌面打下了坚实的技术驱动基础。过去,实施千兆位以太网需要光纤电缆基础设施,这就意味着必须经常对大厦重新布线,尤其是铺设竖井里或布线室之间的线路。1999年1000Base-T的确立,解决了这个棘手的问题,因为IEEE为采用标准第5类铜线电缆的千兆位以太网制定了工业标准。这个标准使各企业能够利用原有铜线基础设施部署千兆位以太网。另外,由于绝大多数桌面连接都是通过UTP建立的,这个工业标准使千兆到桌面部署成为可能。
价格的诱惑
驱动千兆到桌面的最后一个主要的因素,是铜线千兆位以太网的价格有了显著下降。IDC研究表明,固定配置的千兆位以太网交换机端口的平均价格,已经从1998年这项技术刚兴起时的每端口800美元,下降到2003年的每连接100美元以下。同样,千兆位NIC的平均价格也从1999年的500美元,下降到了今天的50美元以下。新型高密度交换机的出现,使用户能够利用现有的第5/5e类电缆部署千兆位以太网,因而无需重新为LAN布线。用户只需追加一点资金,性能就能提高10倍。因此,将千兆位以太网延伸到桌面对企业非常有吸引力。利用802.3ab规范,可以为通过以太网、快速以太网和千兆位以太网连接的所有主机使用现有的第5/5e类电缆。借助当今高密度LAN交换机上的10/100/1000端口,网络管理员可以在企业需要且预算允许时,移植到速度更高的终端站点。
将桌面连接改换为千兆位以太网之后,可以消除远端瓶颈,因为桌面将以服务器发送数据的同样速率从线路中读取数据。发送数据和确认的速度越快,网络的性能就越高。
千兆到桌面拓宽应用
随着千兆位以太网的发展,从骨干网到桌面的网络吞吐量性能将能够达到新的水平。由于企业需要不断提高网络连接的速度,因此,在可以预见的将来,企业将继续部署高带宽应用以及功能更强的服务器和桌面。为满足快速增长的带宽需求,部署带有10/100/1000Mbps铜线连接的新型桌面是最经济的方式。
将千兆位以太网扩展到网络边缘之后,多数应用和用户都能得到显著的性能优势。千兆位以太网的成本已大幅下降,因而已不再是部署决策中最重要的因素。与以前的10/100以太网设备相比,千兆位以太网设备的价格更合理,而且能够使网络和企业得到更多好处。几乎所有人都希望利用千兆位带宽访问更加复杂的带宽密集型应用。
业务和技术需求都在促使业界朝千兆位联网技术发展。如思科在多种平台上提供了10/100/1000端口,这些平台包括 Catalyst 6500、Catalyst 4500、Catalyst 3550和新型Catalyst 3750,能将端到端千兆位多层交换完美地组合在一起,完成千兆到桌面的连接和应用。思科的实践表明,与10Mbps相比,千兆位连接主机的数据传输等待时间缩短了88%;与100Mbps相比,千兆位的等待时间缩短了47%。
欢迎光临 光电工程师社区 (http://bbs.oecr.com/)
Powered by Discuz! X3.2