服务器虚拟化的历史

日期: 2008-04-09 作者:孔之见 来源:TechTarget中国

  什么是服务器虚拟化?不同的厂商有不同的定义,但其核心思想是一样的,即它是一种方法,能够通过区分资源的优先次序并随时随地能将服务器资源分配给最需要它们的工作负载来简化管理和提高效率,从而减少为单个工作负载峰值而储备的资源。


    由于大多数厂商宣传得较多的都是一种基于分区技术的虚拟化,导致很多人会理所当然地认为虚拟化技术就是分区技术。但实际上,虚拟化技术可以通过两个方向来帮助服务器更加合理地分配资源,一种方向就是把一个物理的服务器虚拟成若干个独立的逻辑服务器,这个方向的典型代表就是分区;另一个方向,就是把若干个分散的物理服务器虚拟为一个大的逻辑服务器,这个方向的典型代表就是网格。只不过网格现在还处在试验阶段,没有开始大规模商业应用。


    本文主要阐述前一种服务器虚拟化的发展历史、带来的好处和存在的问题,以帮助我们的读者对虚拟化有一个更清晰的认识。


  服务器虚拟化的历史


    虚拟化技术源于大型机。大型机上的虚拟分区技术最早可以追溯到上世纪六、七十年代。早在上世纪60年代,IBM公司就发明了一种操作系统虚拟机技术,允许在一台主机上运行多个操作系统,让用户尽可能地充分利用昂贵的大型机资源。随着技术的发展和市场竞争的需要,大型机上的技术开始向小型机或UNIX服务器上移植。IBM、HP和SUN后来都将虚拟化技术引入各自的高端RISC服务器系统中。30多年来,应该说虚拟化技术以及在上述高端产品上的应用日臻成熟。但真正使用大型机和小型机的用户毕竟还是少数,加上各家产品和技术之间并不兼容,致使虚拟化曲高和寡。


    随着X86处理器性能的提升和应用普及,人们开始考虑将这一技术导入用户面更广泛的X86平台。早在1998年,通过运行在Windows NT上的Vmware来启动Windows 95的做法让人们惊叹不已。许多发烧友和工程测试人员也开始在PC和工作站领域开始运用这种虚拟方案。近年来,人们开始把这团火烧向PC服务器。


    当人们认识到服务器资源的利用率低下以及服务器整合的必要性越来越强,加之64位、多核X86处理器的出现,让单台X86服务器的性能越来越强大,虚拟化开始吸引更多厂商的关注。特别是在Intel和AMD相继宣布将推出内建虚拟技术的处理器,以实现硬件辅助虚拟化,从而改善原来仅通过软件实现虚拟化所带来的性能和稳定性方面的不足。


    进入2006年,从处理器层面的AMD和Intel到操作系统层面的微软的加入,从数量众多的第三方软件厂商的涌现到服务器系统厂商的高调,我们看到一个趋于完整的服务器虚拟化的产业生态系统正在逐渐形成。这也使得在过去的一两年时间里,虚拟化开始成为广受关注的热点话题。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

相关推荐