“云”学习之一:云的物理性

   云概念近两年越来越火,从传统的云盘到如今的云计算,技术层次迈上了新的台阶,作为一个网络新人,从下述三个角度进行学习分享。

   一、云的物理性?

   二、云对个人/企业带来了哪些便利?

   三、云给产业/生态带来了哪些影响?

   为什么先分析云的物理性,因为云并非天上的云彩,而是将某地方一实体的机房抽象化为概念云,因为这个机房距离终端或消费者很遥远,消费者也没有权限直接进入机房或黑进机房。

    一、云的物理性

            近年来,国内的BATH以及国外的Google、Mcro、Facebook、Amazon、IBM、Cisco等有财力的公司在全球构建了大量的数据中心。每个数据中心容纳了数万至数十万台主机,支持着很多不同的云应用,如搜索、电子邮件、社交网络、电子商务、云存储、大数据分析等。

            大型数据中心投资巨大,一个超过100,000台主机的数据中心每个月费用超过1200万美元[2009年数据],在该费用中,主机自身开销占45%(每3-4年需更新一次),变压器、不间断电源、长时间断电使用的发电机及冷却系统等基础设施开销占25%,用于功耗的电力设施开销占15%,用于互联网的开销占15%。尽管联网不是最大的费用,但是网络创新是减少成本和性能最大化的关键。

           

           如上图,服务机器机架上摆放的是数据中心的主机,主机就像工蜂负责提供内容,存储数据,并共同执行大规模分布式计算。每个机架顶部有个交换机,被形象成为称为机架顶部交换机(Top Of Rock,TOR),TOR交换机与机架上的主机互联,并与数据中心的其他交换机互联。每台主机会有一个网卡与TOR相连,同时每台主机也会给自己分配一个数据中心内部IP。

           数据中心网络需要支持两种类型流量:外部客户与内部主机之间流动的流量、内部主机之间流动的流量。为了处理外部客户与内部主机之间的额流动流量,数据中心网络包含了多台边界路由器(border router),他们将数据中心网络与公共因特网相连。

           在数据中心内部,外部请求先被定向到一个负载均衡器(load balancer),负载均衡器的任务是向主机分发请求,以主机当前负载作为函数来均衡主机之间负载。一个大型数据中心通常有多台负载均衡器,每台服务于一组特定的云应用。

       

            参考文献《计算机网络-自顶向下方法》,(美)James F.Kurose、Keith W.Ross

猜你喜欢

转载自blog.csdn.net/sunwenxu/article/details/88143020