大型机,小型机,PC-Server

一.辉煌中的危机

大型主机创造了辉煌,那是一个“最好的时代”,一切都那么美好;那是一个“伟大的时代”,创造了如此之多的纪录;那是一个“神奇的时代”,大型主机代表着计算方式的巨大进步,为人类社会的发展做出难以估量的贡献。曾几何时,大型主机就是电脑、计算机甚至是IT——信息技术与信息产业——的代名词。

事实上,在IT业界,大型主机是为数不多曾经彻底统治过一个时代,并在几十年间绿树常青的产品,它的诞生开创了一个IT的新时代,而它的发展历程就是一个不断创新、不断成就客户价值的历程。无论是其开创的并行系统综合体(Parallel Sysplex)技术,还是虚拟化技术,都已经成为引领当今IT发展的主流科技——四十年前,大型主机上首次出现虚拟化技术,如今,这项技术成为了改变IT应用、带动新兴技术发展的重要动力之一。

自上世纪六十年代大型主机被发明出来,其一直引领者计算机行业以及商业计算领域的发展,并不断造就一场场有关计算与商业的革命,一项项突破性的技术在大型主机上出现,并被转化为IT领域共享的技术,事实上,如果没有大型主机,IT及商业领域的洪荒年代很可能要自上世纪60年代一直持续到今天。

“大约44年前我在纽约加入了IBM。当时IBM刚刚发布System/360。我最初的工作内容与主机无关,而那时别人已经在接受大型主机的培训了。最终我花费了三年的时间学习,学习当时所需的全新操作系统、全新架构以及全新系统。我自己第一个真正意义上的大型主机客户是纽约的Con Edison电力公司。大型主机为Con Edison所作的一切让我感到惊异。Con Edison采用大型主机做的第一件事实际上就是为客户服务提供支持。然而这样的需求后来演变成了客户信息控制系统(CICS),直至今天它还是使用最广泛的系统,运营着当今世界上最多的交易处理。”IBM System z副总裁及首席技术官George Walsh在IBM工作的近44年时间里见证了大型主机的完整发展历程,他认为,大型主机是IT行业一个显著的、辉煌的、甚至是难以复制的里程碑,而过去四十多年的历史证明,大型主机“能够证明可以帮助客户实现业务增长。”

当然,从过去四十余年的发展及今天的市场情况来看,“大型主机”的概念已经远远不仅限于“大型机”。我们在此所谈,你会发现实际上已经不仅限于“Mainframe(大型主机)”,而是将扩展到“小型机”及整个RISC架构中去,进入到以大型主机、小型机及其后来发展出来的RISC架构系统——包括IBMPOWER、惠普Alpha及Sun SPARC等系统中,一起360度的解读,从大型主机、小型机到RISC架构计算系统的日渐式微,以及今天X86从RISC挑战者,成为RISC架构“掘墓人”的种种。

无论是大型机、小型机还是整个RISC架构,正在经受着CISC架构的代言人X86处理器的强势掠夺,在几十年的辉煌过后,X86正在强势入侵原本RISC及整个小型机所固守的领域,而大型主机,当我们看到其绝大部分市场已经由小型机所维系的时候,其实,事情已经变得越发清楚了。

大型主机的五十年

从60年代的只有大型主机,到70、80年代以UNIX为主导,小型机开始成为主流,大型主机真正统领江湖的时代事实上只有大约15-20年,虽然如今我们仍然能够见到IBM System Z这样血统纯正的大型主机,但如果你和我一样还能回忆的起来,就会想到四十年前,有那么一些不太一样…..

快速变化的市场带来了快速的企业兴衰,在大型主机时代,曾经有“一个蓝色巨人与七个小矮人”的说法,其所指是当年大型主机时代的八家主流供应商,他们包括:IBM—蓝色巨人,及七个小矮人:Burroughs、UNIVAC、NCR、Control Data、Honeywell、General Electric和 RCA——或许你读到这些名字的时候会暗自吃惊:我为什么好像完全没有听过他们的名字?

是的,如果你听说过他们的名字,证明你至少要在30年前就接触IT行业,如今大型主机已经年届50——俗话说是知天命的年纪——许多曾经辉煌的名字却早已随风而逝了。

诚然,大型主机(MainFrame)作为计算机中的最顶级产品,由于其安全性(目前尚无黑客可以对其进行攻击)和高可靠性(目前号称全年宕机时间不超过5分钟)一直被用于金融,证券等行业——大型机是上世纪六十年代发展起来的计算机系统。经过四十年的不断更新,其稳定性和安全性在所有计算机系统中是首屈一指的。正是因为这方面的优点和强大的数据处理能力,到现在为止还没有其他的系统可以完全替代。

但是,在大型主机的强大、安全与可靠的背后,确实高昂的价格与复杂的管理与维护。由于成本巨大,使用大型机系统的一般以政府、银行、保险公司和大型制造企业为主,因为这些机构对信息的安全性和稳定性要求很高。从美国“阿波罗登月计划”的成功,到天气预报、军事科学的发展,以及全球金融业、制造业商业模式的变换,无一离得开大型机的功劳。在银行业,现在数以亿计的个人储蓄账户管理、丰富的金融产品提供都依赖大型机;在证券业,离开大型机,无纸化交易是不可想像的。

另一方面,大型主机随着发展时间的久远,其人才储备也在发生着变化,从最早大型主机占据数据中心主流,管理数据中心几乎等同于管理大型主机,到如今大型主机退入高宅深院,曲高和寡,大型主机的人才发展和管理难度都在直线上升。

要维护传统的系统,和运行传统的软件程序,所需要的技能是天差地别的。比如,大型机系统管理员的任务是安排工作时间表,保证系统安全,控制系统升级,而应用程序开发人员用传统的编程语言比如COBOL, PL/I, Fortran来编写公司的商业逻辑结构。

其中有些技能是保证商业连续性所必需的。其它一些不很重要,要看公司的IT策略如何。把工作功能分离出来对理解你的公司里技术需求很有帮助。当你想到维护和操作由传统程序体现出来的75%商业事务都是这些人的责任时,让他们觉得混乱就很危险了。

人们主要所关心的大型机技能难题的核心是技术人员的年龄。通常认为,这些有相应技术的人即将退休,不但带走了系统专业人员,还带走了他们为公司布满信息技术多年来积累下的商业知识。

而在各种担心中,另一个合理的部分是企业能不能恢复和保持技术团队来跨越传统世界与充满Web Service, Java和.Net的新世界之间的代沟。

担心不该集中于如何取代他们的技术能力,而是如何平衡他们所拥有的商业知识。

商业领域和学院领域都承认,要单独传授一项技能或语言都不再具有优势。这是协作性所必需的。而现在的区别很模糊。同一时代的平台都对大型机产生越来越高的压力,而大型机本身也开始融合Linux, Java和WebService,致力于消除新旧系统之间的隔阂。

今天的IT专业人士通常不会希望有只关于一种技术的直线型生涯路线,更希望有经常变换角色的机会。为了留住熟练的员工,公司可以利用这一点在为敏捷的IT结构搭建服务和商务组件时通过项目合作的基本方式来使用传统技术。

因为关键的传统技术人员退休的时候还没有来到,IT公司还有些时间来确保技术的平稳过渡。但前提是他们要努力吸引新的拥有技术与商务混合技能的人员,以及确保现有人员可以随时将他们对传统系统的知识以及他们掌握的商务流程。

小型机:当大型机开始走下神坛

虽然DEC这家公司早已不在,但是由这家公司所提出的小型机概念,却在后来成为了几十亿甚至上百亿美元的庞大市场——在大型机发展到第十个年头的时候——小型机出现了。事实上,当人们为动辄百万美元的大型主机所兴奋的时候,有一些冷静人开始意识到,这个世界上不可能仅靠“五台计算机(来自IBM前总裁小沃森,1945年)”,沃森的话如今已经被证明是一个有趣的错误,事实上,十年后随之而来的小型机仅仅几个月就打破了这个“世界纪录”。

在上世纪六十年代,没有任何一家企业、组织、机构或是个人,会认为大型主机会变小,会变得简单,或是变得更加便宜,小沃森的话除了描述了大型主机的强大性能,事实上也告诉我们大型主机到底有多庞大。

1965年DEC公司海外销售主管约翰·格伦将PDP-8运到英国,发现伦敦街头正在流行“迷你裙”(Mini),姑娘们争相穿上短过膝盖的裙子,活泼轻盈,显得那么妩媚动人。他突然发现PDP与迷你裙之间的联系,新闻传媒当即接受了这个创意,戏称PDP-8是“迷你机”。“迷你”(Mini)即“小型”,这种机器,小巧玲珑,长61厘米,宽48厘米,高26厘米,把它放在一张稍大的桌上,怎么看都似穿着“迷你裙”的“窈窕淑女”。它的售价只有18500美元,比当时任何公司的电脑产品都低,很快便成为DEC获利的主导产品,并引发了当时计算机市场的小型化革命。

我们看到,小型机继承了大型机在安全性和高可靠性方面的区别——小型机跟普通的服务器(也就是常说的PC-SERVER)是有很大差别的——最重要的一点就是小型机的高RAS(Reliability, Availability, Serviceability 高可靠性、高可用性、高服务性)特性。

此后四十年,UNIX服务器——也就是中国业内习惯上说的小型机,在服务器市场中处于中高端位置。UNIX服务器具有区别X86服务器和大型主机的特有体系结构,基本上,各厂家UNIX服务器使用自家的UNIX版本和处理器。比如IBM公司采用Power处理器和AIX操作系统,Sun、Fujitsu(富士通)公司采用SPARC处理器架构和Solaris操作系统,HP采用PA-RISC架构(现在转向于安腾处理器)和HP-UX操作系统;过去的Compaq公司(已经被并入HP)处理器架构采用Alpha。使用小型机的用户一般是看中Unix操作系统的安全性、可靠性和专用服务器的高速运算能力,而随着大型主机在价格、管理、部署及人才上的各种矛盾的日益凸显,小型机——也就是后来的UNIX服务器(RISC服务器)成为了市场高性能、高安全性和高可靠性产品的典范。

RISC架构:来自大型主机走向共同命运?

随着小型机逐步统一以RISC架构,整个服务器市场形成了以RISC为代表的小型机服务器市场,RISC在事实上(其实还有少量的EPIC架构产品)的小型机市场的代名词。正是由于大型机、小型机及整个RISC架构一脉相承的关系,我们看到,大型主机确实有多年的辉煌,但现在,时代变了,大型主机的时代正在默默退去,而随着大型主机退入数据中心深处,成为极少、极罕见的大型及超大型客户所使用的产品,高可靠性市场及关键业务服务器系统的主流实际上已经为RISC架构的产品。

而随着RISC架构产品在过去几年在服务器市场份额上的显著变化,我们看到,在RISC架构成为小型机主流,并成为大多数企业的关键业务服务器系统首选几十年后的今天,其实RISC架构服务器所走的路,在很大程度上开始重演大型主机的过去。

2011年12月,分析机构IDC发布了当年第三季度的服务器市场报告,其中显示,在这个季度全球服务器出货量为240万台,相比去年同期增长7.2%。而基于RISC架构和英特尔安腾架构的高端服务器出货量同比下降6.8%,相比之下,x86服务器继续保持迅猛势头,相比去年第三季度增长7.6%。

近观中国市场,X86服务器同样攻城掠地。同样出自IDC的数据显示,2011年前三季度,中国X86服务器市场持续高速增长,销量和销售额分别同比增长34%和42%,1-9月累计销量超过87万台,已接近2010全年销量。而在这增长背后的,是以中国电信为代表的大型企业在公开场合,宣布将使用X86服务器取代传统的RISC系统。

IDC认为,传统的RISC平台正在阻碍IT前进的步伐,而应对云时代的变化,用户首先要做的就是向可交互性基础架构迁移。不管是供应商锁定、硬件和软件成本、服务和支持成本、消除IT孤岛还是资源灵活性方面,RISC对用户来说都不是一个好的选择。单单在系统支出方面,占全球服务器总量2%的RISC服务器就需要花费105亿的IT支出。因此对于大多数客户来说,迁移至新平台的必要性已经很明确,他们需要考虑的是什么时候迁移。

越来越多的用户正在转向x86平台,而英特尔的X86平台自然成为用户迁移的第一选择,英特尔的至强E7系列,在2011年成为年度风云产品,它们可以运行在windows和Linux环境上,还具有可扩展性的能力,在性能、可靠性和节能等方面都获得了令人欣喜的结果。

更重要的是,从性能角度来说,至强E7平台与IBM最新的Power 7的主要工作负载基本上相同,性能也可以达到一样的水平——谈回到RISC架构的话题,为何英特尔至强E7获得了如此多人的青睐?又为何成为关键业务服务器市场传统RISC架构的掘墓人?难道RISC架构正在步入传统大型主机的后尘?

正因如此,我们在后面继续本章《辉煌中的危机》时,重点将介绍曾经的三大主流小型机(RISC系统或称UNIX系统),他们分别是IBM的POWER System、Sun的SPARC系统和惠普的Alpha系统——说起是曾经,是因为Sun如今已经嫁入Oracle豪门,而惠普的Alpha则已经成为了绝唱——并以这三款系统的发展,展现出RISC架构的现时走向及其所面临的困境。

二.Alpha的消亡

1960年,第一款18-bit PDP-1(可编程数据处理器-1)问世,该处理器每秒钟能够完成10万个指令。而且PDP-1还运行了世界上第一款电脑游戏(Spacewar of Steven Russell)。DEC凭借着Alpha处理器创造了辉煌。但后来被惠普收购,高额的研发费用和萎缩的市场需求,Alpha最终被惠普放弃。

短短110个字,几乎概括了整个Alpha产品的发展历史。

DEC Alpha,也称为Alpha AXP,是64位的 RISC 微处理器,最初由DEC公司制造,并被用于DEC自己的工作站和服务器中。作为VAX的后续被开发,支援VMS操作系统,如DEC UNIX。不久之后开放源代码的操作系统也可以在其上运行,如Linux和 BSD。Microsoft支持这款处理器,直到Windows NT 4.0 SP6,但是从Windows 2000 beta3开始放弃了对Alpha的支持。1998年,康柏收购DEC时,获得了Alpha芯片的技术,惠普收购康柏后,就理所当然地成了Alpha芯片的技术的拥有者。

曾经有IT分析师认为Alpha的悲哀在于:“Alpha芯片是一项伟大的技术,但它太超前了,已经超越了用户的需求。”——事实上,Alpha芯片是首款于1999年时钟频率就已经达到了1GHz的芯片。对DEC(或者说是康柏和惠普)和Alpha芯片最不公平的是,只有极少数专业客户器重Alpha芯片。Alpha芯片价格昂贵,用户要找到在Alpha芯片上运行的应用软件有很大困难,再加上销量低等因素,1999年,微软公司终止发售面向Alpha处理器的Windows NT操作系统。

Alpha:曲高者和寡登顶者孤傲

第一款Alpha芯片是在1992年公布的,距今已经有20年的历史了。第一块Alpha芯片的工作频率为200MHz,不过这已经是当时芯片所能达到的顶级速度——那时,用户和业内人士最为推崇的也正是Alpha芯片的“卓越性能”。不仅仅如此,第一块Alpha芯片就是64位的,这一点其他芯片制造商是在多年之后才赶上的。当时DEC开发64位Alpha芯片的目的是为了运行多个操作系统——从Unix到Windows NT。

此外,当时DEC对于该芯片充满了信心,认为其生存周期将长达25年。

Alpha确实是一款可称之为里程碑式的处理器,除了上述辉煌历史外,Alpha芯片也是工作频率在传统条件下第一个达到1GHz的处理器,准确时间为1999年。虽然Alpha有如此光荣的历史,可是上帝并没有将机会交给DEC公司:Alpha芯片和采用此芯片的服务器并没有得到整个市场的认同,只有少数人选择了Alpha服务器。

现在我们回过头来寻找Alpha芯片失败的原因,会发现其有几大失误:首先,Alpha芯片太昂贵了。而Alpha所针对的用户群中能负担起如此昂贵的技术工具的人数实在不多。其次,支持Alpha服务器的应用软件实在是太少了。这对于服务器而言,绝对是一个巨大的问题,一台没有软件可用的服务器其实就是一台昂贵的IT陈列品。

由于Alpha服务器的销售不佳,微软在1999年也停止发售专门支持Alpha芯片的Windows NT。这对于Alpha服务器而言,更是一个雪上加霜的打击。不少业内人士在为Alpha芯片扼腕之余,不由得发出感慨:它(Alpha)走在了时代的前面——虽然Alpha芯片是一项伟大的技术革新,但是当时需要它的用户并没有大量出现。

我们不得不承认,Alpha是一个优秀的处理器,它不仅是最早的跨过GHz的企业级处理器,更是最早计划采用双核甚至是多核架构的处理器,Alpha在很长一段时间内,都给人以“曲高者和寡登顶者孤傲”般的感觉——不仅是高高在上的价格——Alpha系统价格高昂、安装复杂,ISV难以在其上完成应用系统的开发,这直接导致Alpha系统的部署实施难度远远超过一般企业IT管理人员所能承受的难度,在一定程度上,这也导致了后来发生在Alpha身上的一系列悲剧。

Alpha转型:康柏向英特尔“示好”

2001年,通过收购DEC而强大起来的康柏,终于耐不住Alpha的曲高和寡,和英特尔公司在全球范围内同步联合宣布,康柏将其全部64位服务器系列产品逐步转移到英特尔公司的安腾处理器家族架构之上。这是一个令业内人士震惊的重大决定。

康柏与英特尔签署的是一项为期多年的协议,这项协议全面加速基于英特尔安腾处理器家族的新一代企业级服务器的面市。康柏将向英特尔转让重要的企业级处理器技术,并将整合其全部64位服务器系列产品至安腾架构之上,这两家公司将共同扩展市场,增加用户对安腾处理器家族的接受度。这一技术和市场营销协议,将康柏的系统工程专业技术、用户基础与英特尔的微处理器设计能力、大规模制造能力结合在一起。康柏将开发出更广泛的服务器产品系列,从超级计算机到web服务器将都运行于单一的微处理器架构,即安腾架构。

众所周知,处理器的设计和开发工作耗资巨大,无论是康柏还是IBM或是Sun,每年用于研发的费用在数十亿美元,其中处理器的研发占了15%左右的份额,而基于Alpha处理器的康柏Alpha服务器和Himalaya服务器年销售额一直徘徊在30亿美元左右,多年未有突破。因此,外人虽然羡慕康柏拥有最成熟和先进的64位Alpha处理器技术,但其中的苦衷却只有康柏自己心里知道。据说这笔投入必须要卖掉100万颗芯片才收得回来,那么,转让Alpha可以说就是个顺理成章的事了。许多分析家都认为,康柏此次做出了聪明的决定。Alpha处理器已经成为康柏的沉重财政负担,将其转让出去后,虽然转让费用尚不为外人所知,但此举确为康柏每年节约了高额的研发投入。

当时有分析师表示,虽然康柏的Alpha处理器有着强大的性能,但是其研发和生产成本的高昂使Alpha服务器的价格一直居高不下,而此次将Alpha处理器转让给英特尔之后,有望在英特尔这个处理器巨人的手中由于规模效益而大大降低处理器的成本,并获得更加丰富的生态环境——虽然康柏花费了5年的时间将天腾服务器转移到Alpha处理器上,但用户几乎没有太大的反响。对于一个高端服务器系统来说,处理器只是系统的一部分,整体性能的高低、生态环境的完备才是用户选择服务器时所考虑的主要指标。

宣布技术转让的消息之后,康柏的官方网站上曾登载了一份第三方报告,报告中有如下文字:客户和厂商再也不需要将芯片作为系统的区别标准,他们可以将重点放在系统、解决方案、可靠性和总体拥有成本上。相应地,在以商品化、竞争激烈和具有价格压力为主要特性的新世纪IT市场中,Alpha的价值被逐渐淡化了。

而正是在这次技术转让之后,Alpha也就开始踏上了末日之路。

2004:末代绝唱末路解读

2004年,惠普已经完成对康柏的收购,2004年,成了Alpha的绝唱。

在2001年康柏将Alpha技术转让给英特尔之时,很多人就已经预见到了这一天的到来,只是大家都没有想到这一天来的这么快。2004年8月,惠普发布Alpha EV7z,工作频率为1.3GHz,并向外界宣布,这将是惠普芯片路线图上最后一款Alpha新品——自从惠普和康柏合并之后,惠普公司就一直建议Alpha用户逐渐转移到其他平台上,惠普认为,Alpha太过高昂的价格、稀少的应用软件、落后的生态环境以及让惠普都难以承担的研发成本,让惠普继续Alpha之路显得有些“得不偿失”。

事实上,Alpha的悲剧在如今恰恰成了整个RISC市场前瞻性的缩影,随着RISC市场的不断萎缩,以X86为主的开放标准服务器系统,正在快速的从能耗、性能和可扩展性方面抢占RISC的市场,而我们能够从Alpha上略窥其背后所蕴藏的深层原因。

一方面,过度的控制,导致了Alpha的高昂价格,从DEC到康柏再到惠普,都将所有和Alpha处理器相关的配件和外设都自己生产,也“从来都没有想过要将他们的产品(处理器,芯片组和主板)的价格降低到大多数潜在消费者能够承受的价位。”例如在95年初,266MHz和300MHz的EV5每千颗售价高达2052美元和2937美元。当然这还是批发的价格,如果考虑到实际的零售价格的话,EV5的定价要比同时期RISC设计竞争者高出两倍以上。

另一方面,封闭的系统不仅有害于用户,更使得Alpha成为了“孤家寡人”,虽然DEC公司很提倡开放式架构的概念,而且从一开始Alpha计划就是开放的。不过一直以来,所有的研究开发工作都是由DEC自己的工程师来完成的,只有在生产阶段委托给了其他公司。既然是自己完成的,所以公开的只有大致的产品框架,而最重要的硬件设计部分却被秘而不宣,要得到就需要交纳高额的专利费。尽管从EV4开始,DEC公司就先后向Intel,MOTOROLA,NEC和Texas Instruments伸出过橄榄枝,奈何专利费太高了,这些公司都没有接受DEC的“好意”,转眼就开发出了自己的产品。

第三,过度的控制与封闭的系统,导致了生态环境的恶化。OpenVMS和DigitalUNIX两款操作系统定价过高,导致用户极少买单,而Windows NT作为“Win内核”的产品,并不适合在Alpha这样高端的RISC系统上运行(直到今天,RISC系统的绝对主流仍然是UNIX)。与此同时,从DEC开始,Alpha平台就对开源系统并不友好,拒绝了大多数Linux的迁移,虽然在随后开放,但已经为时已晚。

与此同时,高昂的定价与封闭的系统,导致ISV开发人员兴趣索然,在很大程度上导致了Alpha平台在软件应用方面远远落后于竞争对手,从未真正意义上拥有一个围绕在Alpha平台上的生态环境——无论是应用程序、中间件、操作系统还是系统服务,这直接导致了Alpha平台与用户之间的距离越拉越远。

三. SPARC改投门庭

20世界的80年代是RISC处理器的时代,RISC架构把较长的指令分拆成若干条长度相同的单一指令,可使CPU的工作变得单纯、速度更快,设计和开发也更简单,而SPARC在RISC处理器中的地位从其创立之初就已经确立:1984年,Sun工程师中的一个小团队开始研发被称为SPARC的32位RISC处理器,而SPARC项目的开发顾问就是提出RISC架构DavidPatterson。

事实上,在RISC领域中,SPARC处理器是非常重要的一个产品,从1984年SPARC架构的提出、1987年的第一颗SPARC处理器,到获得巨大成功的UltraSPARC-III、再到8核心32线程的UltraSPARC-T1和中途被废止的16核心“Rock”,Sun SPARC沉浮二十五年,奠定了Sun在高端微处理器市场中的领先地位,成就了一段硅谷传奇。然后,现在,甲骨文对SUN的收购以及后续发展计划的冻结,意味着SPARC前途渺茫。

SPARC全称为“可扩充处理器架构(Scalable Processor ARChitecture)”,1985年由当时如日中天的Sun提出原型设计,并随之成立SPARC国际公司以向外界推广SPARC处理器,Sun的工程师们在1987年不仅完成了SPARC处理器的设计,同时还针对当时主流的重装系统完成了大量的互操作性测试,并在随后形成了围绕SPARC设计的生态环境。

值得纪念的是,与SPARC同时产生的还有Sun公司曾经奉为经典的那句“网络就是计算机”。几十年前,如此潮流的“名言”并不为人们所理解——因为那时连个人计算还没有普及——更不要说是虚浮飘渺的网络计算了。但随后几十年的实践证明,Sun的这个论断是正确的,甚至是“神圣的”——现在的网格、云计算等,可以说都是来自于Sun的“网络就是计算机”这句名言的引导。

但随着RISC架构日落西山,英特尔的至强处理器又开始了不断对RISC处理器的进攻,这导致了以SPARC服务器为营收主力的Sun的进一步下滑,而随着Sun公司连续多年的业务下降趋势难以遏制,SPARC处理器自然难以逃脱不断衰落的命运,导致新型号产品不断的被拖延上市——这一拖,等来的不是新的SPARC处理器,而是Sun被Oracle的收购。SPARC的命运,或许就此将改写。

SPARC兴盛:曾经最开放的RSIC处理器

SPARC处理器在RISC架构处理器中,唯一有过多家供应商设计制造的一款极为开放的处理器,在SPARC刚刚设计之初,一直秉承开放的Sun就认为,SPARC应当是一个开放的甚至是开源的产品,也正是如此,SPARC在最初的十几年在业界获得了大量硬件供应商的支持和青睐,成为“最开放的RISC处理器”。

上世纪九十年代,前文所说的SPARC国际公司,为了扩阔SPARC设计的生态系统,宣布将把标准开放,允许业界合作伙伴共同设计和制造SPARC架构处理器。随后,其授权予多间生产商采用,包括德州仪器、Cypress半导体、富士通等都曾经在九十年代生产过SPARC处理器——由于SPARC架构也对外完全开放,因此也出现了完全开放原始码的LEON处理器,这款处理器以VHDL语言写成,并采用LGPL授权。

2009年,SPARC的开放趋势再进一步,Sun推出了OpenSPARC计划,该计划包括公布UltraSPARCT1的硬件设计要点及Solaris10操作系统迁移规格,以及更多关于UltraSPARCT1处理器独特的CMT技术的重要资料,同时,Sun将OpenSPARCT1芯片设计、验测套件、架构及效能模型工具,放置在网站www.Opensparc.net上,形成了SPARC架构的事实上的开源。

Sun通过SPARC代码开源举措,显著地提高业界在处理器体系结构设计和应用设计中的参与程度,消除Internet下一波大发展中的障碍。该项目围绕硬件的设计开展更多的协作,使采用不同技术进行设计时的成本降低,并促使新产品快速推向市场。实践证明,Sun的SPARC开源之举,使其重新赢得了市场。富士通和Sun合作,不断推出SPARCEnterprise服务器,就是最好的明证。

从SPARC身上我们不难看出,越加开放的架构及其所衍生出来的产品,越受到业界及市场的欢迎,其不仅能够形成围绕在其身边广泛的生态环境,更能够得到大量产品供应商的青睐,从而设计和制造出大量各具特色和符合用户应用实际的产品。SPARC的开放性铸就了这款处理器及其架构的兴盛,但在这繁华背后,难掩的是Sun在产品化和市场营销方面的落后,以及整个RISC架构市场的萎缩不振,因此在火热的发展二十年后,SPARC处理器不仅难以拯救Sun的穷途,更难以挽回RISC架构的颓势。

但开放的趋势被以英特尔为首X86处理器阵营所延续下去,秉承了开放、标准化的英特尔至强处理器,以及像像戴尔等X86供应商在X86处理器上的不断推陈出新的坚持,使得X86服务器成为了备受市场青睐的服务器产品。SPARC的开放与标准的精髓,在X86上仍然闪耀着夺目的光芒。

SPARC入赘Oracle:从开放向封闭之路?

如果将2009年IT产业中的大事做一个排行的话,那么Sun被甲骨文收购这个事件,一定可以排进前三。Sun,这个曾经在硅谷唯一可以和IBM比肩的巨头,如今也失去了昔日的光辉。曾经Sun投资数十亿用以在16核Rock处理器上,今日Rock却被被腰斩,不仅让人不得不唏嘘Sun硬件业务的未来,曾经辉煌一时的SPARC,不知道是否今后也会慢慢淡出人们的视线。

在收购完成Sun之后的第一个完整季度,Oracle的SPARC服务器的收入就下降了10.9%,显然市场已经开始担心Oracle能否将SPARC服务器良好的延续下去,而到了2011年,这种下滑的趋势不仅没有得到缓解,反而有愈演愈烈之势,2011年第一季度相比2010年同期,Oracle的SPARC服务器销量又下滑了接近四分之一,这不仅仅源于RISC架构的整体下滑,更重要的是,随着IBM与惠普在RISC市场上针对SPARC进攻愈发主动,且Oracle的一系列举措都将SPARC处理器变得越发封闭,导致了市场上对SPARC架构服务器的信心在不断地下降。

Oracle在2010年开始推出Appliance应用系统,无论是早期的数据库一体机Exadata、中间件一体机Exalogic,还是后来推出的Exalytics,虽然只有部分采用了SPARC处理器,但是一体机应用系统更加封闭的特性让人们不免揣测:Oracle是一家比Sun更加封闭的商业公司,未来的SPARC产品是否会变得封闭?

事实上,就在完成收购Sun之后,Oracle就很快显露出自己的本性。先是准备让MySQL自生自灭,任其核心开发人员离职创业;而后又对OpenOffice的开发指手画脚,想把其控制权掌握在自己手中,不愿让IBM、谷歌、红帽、Novell等对其染指太深,接着,Oracle又将本来已奔向自由的JAVA拽回来搞点授权许可之类的事情,让其他如IBM红帽等十分倚仗JAVA的公司提心吊胆。而除此以外,Oracle已经一举关闭了Project Wonderland、Project Darkstar及Project Kenai三项原属Sun旗下的开放源码项目计划。

而随着未来SPARC将成为Oracle的Appliance应用系统的主要处理器架构,Oracle也在不断的缩减——甚至是取消——基于SPARC架构的通用服务器的销售,到目前为止,在市场上已经很难见到基于SPARC架构的通用服务器,无论是机架、刀片还是传统的塔式服务器,可以说,Oracle目前仍然销售的SPARC硬件,只剩下新推出的SuperCluster服务器和某些采用SPARC的版本的Appliance应用系统了。

这也就意味着Oracle将SPARC封闭在了可以数的出来的一些应用系统中,用户将很难在未来继续使用SPARC通用服务器,而只能去选择SPARC版本的Appliance应用系统——这很难说是否会造成用户最担心的问题:厂商锁定,但越发封闭的SPARC显然使人们担心未来这一“曾经最开放的RISC处理器”的未来命运。

四.POWER的坚持

1996年时,RISC架构服务器和大型机在服务器市场上的占有率高达70%左右,其年收入则高达490亿美元,当时刚刚兴起不久的x86架构服务器市场份额仅有30%,收入也不过140亿美元。而时间走到2010年时,仅英特尔x86架构的服务器(即基于至强处理器的服务器)就已占据了近60%的市场份额,坐拥300亿美元的营收,而曾经辉煌的RISC架构服务器加大型主机此时的市场份额已降至30%以下,营收仅为150亿美元。

而来自IDC的数据也证明了这一点,IDC公布的2010年第四季度全球服务器市场追踪报告显示,在2010年,全球服务器市场规模与2002年时基本相当,都在530亿美元左右(2010年还略低),但是英特尔 x86与RISC的市场份额已然倒转:如今X86架构是服务器的蓝海市场,而RISC架构则成为了“偏安一隅”的小众市场。

而在RISC市场,只有IBM还在坚持发展,但是,在一代代新的POWER处理器及服务器的问世的背后,却难掩RISC服务器在数量和销售额上被x86服务器赶上、超越、拉开距离的尴尬局面,IBMPOWER虽然仍然肩扛RISC市场的大旗,但是这面旗扛的却是越来越难。

第一代的POWER处理器,诞生在上世纪九十年代的第一个年头,1990年2月,随着IBM发布RS/6000系列计算机系统,IBM POWER处理器-POWER1也随之发布,与当时其他的RISC处理器不同——POWER、Alpha和RISC的各具特色显示出当时RISC市场的繁荣——POWER1拥有单独的浮点寄存器,并从硬件层面进行了功能划分,其可以使用从低端到高端的UNIX系统使用。

随后的二十年间,IBM一直坚持每三年推出POWER处理器,而到POWER7的推出,IBM POWER处理器达到了性能、可靠性、可扩展性上前所未有的高度,但是,也正是在此时,IBM POWER7遭遇到了前几代产品从未有过的严峻形势,X86这一曾经不起眼的竞争对手,开始发出强有力的挑战,无论是在关键业务服务器领域,还是未来的云计算服务器市场,IBM POWER7的日子都有些不太好过。

POWER 7遭遇X86严峻性能挑战

时间迈入2011年时,距UNIX操作系统诞生已经过去了整整42年。在这42年里,UNIX由小变大、由弱变强,特别是与RISC架构搭档后,它的发展推动了企业级IT技术和产品的历史性演进,成为全球用户关键性业务首选的高可用和高稳定的系统平台。然而,在RISC+UNIX系统的辉煌历程中,却无时无刻不面临着来自竞争对手的挑战。

从2010年IBM在其POWER 7处理器的发布会上,主动展示这款新品与英特尔至强5500的性能对比就不难看出:这个曾经傲视群雄的RISC+UNIX阵营巨头已经公开承认了x86平台的崛起。

而2011年,一场年末大PK,则让POWER再度走上了与X86架构PK的风口浪尖。

2011年12月15日,在北京朝阳区798艺术中心,正上演着一场Power虚拟机与x86物理机的应用大赛。这场IBM主导的PK大赛,主要目的就是大家一直所关心的所谓x86平台与Power的性能对比结果:在比赛现场IBM通过电信行业和医疗行业两个应用场景对Power虚拟服务器与x86物理机的应用性能进行了对比。

虽然IBM借助比赛的结果,重述了其一直以来的观点:相同性能下,Power虚拟机在空间、能耗、成本及管理等方面的优势,都会让Power系统在TCO(总体拥有成本)上领先于x86。但仅仅从这一场PK大赛上来看,我们就不难发现,IBM已经为POWER的对手阵营中,加入了X86,这是一种对对手的肯定,也是一种对对手的重视。

而从分析机构及SPEC组织公布的测试结果来看,POWER7确实应该开始对英特尔至强E7,甚至是至强5600这样的产品产生忧虑:在浮点运算方面,至强E7的八插槽系统已经明显领先IBM POWER 750,而在SAP的S&D 2-tier测试中,E7系统的得分相当于Power 750的90%,而8插槽的E7已经明显超越了Power 750。SPEC Java Business Benchmark2005则是至强表现最好的一个测试,在这一测试中,4插槽E7系统已经完胜Power 750,而8插槽的E7也与Power 780相差甚小,已经是后者性能的95%。

与至强7500相比,E7-4800基本上已经与Power 750平起平坐了,8插槽的E7-8800在某些领域也已经具备与Power780叫板的实力。因此,伴随的E7的推出,POWER7系统接招也将不再轻松,尤其是对于其刚开始大规模推广的低端POWER7系统来说(Power 710/720/730/740),更是一大挑战。而随着x86处理器平台在RAS特性方面不断的加强,我砍在可预计的未来,x86无疑将给RISC平台施加更强大的压力。

 

云计算需要X86 开放架构成趋势

从上面的性能数据我们不难看出,在关键业务领域,RISC架构正在遭遇着前所未有的挑战,随着开放架构服务器在性能、可扩展性等领域不断改进,封闭式架构的服务器正在面临被侵蚀的命运。目前在RISC架构服务器拥有传统优势的电信、金融、医疗、证券等行业,已经有企业摒弃RISC架构服务器,将数据迁移到x86架构服务器上。

作为开放架构处理器最重要的供应商,英特尔正在为最广泛的关键业务操作系统、应用程序的可用性以及OEM系统创新和服务差异化的计算需求提供最佳的选择。

随着英特尔至强处理器的制程工艺从原来的50微米发展到今天的32纳米,并在处理器微架构上实现了不断的突破与进取,其已获得了突破性的性能和能效表现,并兼备原来只有在昂贵和相对封闭的系统才具备的高安全性、可靠性、可扩展性和可维护性,这使得IT机构此前一直被迫为关键业务应用部署昂贵的封闭式RISC架构系统的问题迎刃而解。而至强处理器、特别是它的最新产品——至强处理器E7产品家族也获得了英特尔历史上前所未有的、最为强劲的行业发展原动力的支持。

X86服务器在电信行业——RISC架构的核心行业——的进展,形象的说明了X86架构在关键业务领域对RISC架构的冲击:据中国电信广州研究院/中国电信BOSS评测中心主任李先绪介绍,通过加入E7处理器平台服务器,电信业务高峰期(月底月结)500条详单查询时间从原来的1分多钟缩短到5-10多秒,性能提升明显。“从目前的测试来看,基于全新的英特尔至强处理器E7的服务器平台,其卓越的性能可达到小型机水平,同时在成本、可维护性和功耗方面都具备较大优势。”李先绪表示。

中国电信股份有限公司广州研究院(简称中国电信广州研究院)是中国电信集团公司三大研发中心之一,重点研究领域包括公网技术支持、多媒体通信技术、无线通信技术、通信防护技术、计算机应用技术、网络规划及下一代网络研究等,是中国电信未来IT技术发展方向的试金石和技术储备基地,其对X86开放架构的测试与肯定,说明RISC架构的优势已经越来越不明显。

而另一方面,中国电信的某些省公司已经迫不及待:系统应用和中间件部分已经开始从传统RISC小型机迁移到基于英特尔至强处理器的4路服务器上,这一业界首次针对电信计费系统的迁移尝试效果显著,性能提升明显。在此之后,随着第二阶段迁移的工作逐步展开,数据库,查询数据库也将从传统RISC架构小型机系统迁移到基于英特尔架构的4路或8路服务器,目前测试工作正在试运行中。

而在未来的云趋势之下,X86开放架构已经开始逐步掌握云计算这一未来的趋势,大有“一统云天下”的趋势。

随着云计算的兴起,云服务器这一概念日渐流行。相对于一般类型的服务器,云服务器有更出色的计算能力,节能降耗能力也非常突出。云计算的目标是帮助企业降低IT成本,在此目标之下,云服务器通过虚拟化技术等整合计算资源,提高服务器的利用效率,从而降低硬件支出和能耗成本。

开放架构服务器更适合部署云计算,云计算则反过来推动了服务器进一步走向开放架构。

英特尔在1978年开创了x86架构处理器,基于这套处理器的服务器则被称为x86服务器。

x86服务器由于采用开放架构,客户可以拥有丰富软硬件选择和更高的性价比,因此在非核心、非关键应用领域非常受欢迎。而当时封闭式的RISC架构服务器仍然占据市场主流。但发展到今天,x86服务器已经非常成熟,是市场上需求最为旺盛的服务器种类之一,最重要的是,其开放性使其成为最具规模性、标准性、扩展性和管理性的产品。

正是因为有了这些特性,X86处理器更适用于云计算的未来趋势,而另一方面,云计算的兴起将推动关键业务领域服务器架构的革命,从专有架构走向开放架构的过渡成为服务器市场发展的主旋律。

云计算本身是IT资源整合的技术,客观上要求各种数据可以在不同服务器之间自由迁移,各种软件资源实现共享。而封闭式架构的服务器则限制了这一进程。因此,随着越来越多的企业采用云计算获得IT服务,这种架构的服务器也越来越不合时宜。

从用户角度来说,采用封闭式架构服务器面临诸多限制:首先他们无法根据自身需求选择最适合的软件和硬件设施,他们只能被动服务,接受服务器提供商给出的既有的软硬件资源,实际上是将主导权放在别人手中。

如此一来,用户就不得不接受服务器提供商提出的高昂的采购和维护价格,缺乏议价空间。而且一旦服务器发生问题,或者业务结构调整需要进行数据迁移的时候,用户会面临多种困难,封闭架构的服务器会导致其数据迁移效率非常低下。因此,这导致了许多曾经RISC的忠实用户,在考虑云计算时,开始考虑X86,而不是传统的如IBM POWER这样的RISC架构处理器。

这也就是说,虽然在专有的硬件和软件系统上也能实施云计算,但这样的云计算平台会把用户“锁”住,用户只能在有限的空间内选择软硬件,同时还必须支付高昂的费用维护和管理云计算平台。与之相对,在x86平台上进行软硬件的整合和扩展,则可以提高云计算平台的标准化程度,让用户拥有更多的选择余地,并且能有效地降低云计算的实施成本,提高云计算的灵活性。

事实上,有媒体记者更是认为,“对于方兴未艾的云计算,从服务器的角度来看,以x86服务器搭建云平台是个主流的选择,这会加速x86服务器对UNIX服务器的冲击。”而在此时,我们看到类似戴尔这样的一直以来坚持在X86服务器领域的厂商开始有了新的发展机会:传统的RISC厂商难以避免的会顾忌自身不同产品线上的竞争优劣,而毫无包袱的厂商——如戴尔——则能够把X86开放架构的云做的更加彻底和更加标准、开放。

注:本文转自如下链接:

http://www.doserv.com/article/2012/0220/4657274.shtml

http://www.doserv.com/article/2012/0220/5091794.shtml

http://www.doserv.com/article/2012/0220/5564069.shtml

http://www.doserv.com/article/2012/0220/6885431.shtml

猜你喜欢

转载自blog.csdn.net/yetugeng/article/details/88086636