很多程序新手应该都知道网络营销吧,数据中心是网络营销中的最重要的部分,可以帮助这些科技公司更好地传递、加速、展示、计算、存储数据信息。数据中心一般是一个大型仓库,主要存放服务器和其它联网的计算机设备,这些设备保存着互联网上的大部分数据的同时,也为云计算提供必须的计算力。但数据中心往往也伴随着大量的热量,其能量使用密度能超过一栋普通办公大楼百倍以上。而防止服务器过热是数据中心运营成本的主要组成部分。因此,这一领域的大公司,*括Facebook、微软和谷歌在内,都在寻找节省制冷成本的不同方法。
数据中心的前世今生自然冷却算得上是数据中心最早的冷却方案之一,通过使用外部空气温度与设备之间的温差达到给设备降温的目的,但这种冷却方法受地区限制,因此数据中心通常会使用某种形式的空调设备来冷却IT设备——风冷。
风冷因成本较低一直发展较快,但随着设备的不断增加,服务器越发的密集,风冷也逐渐不能满足冷却需求,而可用性、绿色节能、动态冷却成为了主要的创新方向,其中液冷技术因为突出的性能受到众多厂商的青睐。
液冷,是指通过液体来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走。目前,业界主要的液冷技术有三种:冷板、喷淋和浸没。
因此,国内外主流厂商都在大力推进液冷技术研究。例如,Facebook公司正在推出一种与Nortek空气解决方案公司合作开发的新型间接冷却系统——StatePoint液体冷却(SPLC)解决方案。
Facebook主要依靠地理自然环境来降低数据中心的温度。Facebook在瑞典建立的数据中心Node Pole离北极圈仅一步之遥。这里的常年低温,冬天平均气温更是低至零下20度。这样的地理环境非常有利于数据中心的运营维护,温度较低,也有利于服务器的冷却,在一定程度上减少了维护的成本。Facebook利用这一环境特点,将室外的冷空气泵进中心大楼内,服务器产生的大量热气与进来的冷空气进行循环交换,从而形成自然冷却的过程。
此外,Facebook在爱尔兰也建有数据中心。爱尔兰坐落与欧洲西北角,西临大西洋,东靠英格兰,是北美通向欧洲的中转站。爱尔兰所处纬度较高,全年气温偏低,处于6到20摄氏度之间。爱尔兰还拥有两条通往美国的海底光缆,以及十一条连接英格兰各地的海底电缆。它能够帮助企业实现自动故障切换。假如美国出现网络中断,可由爱尔兰的数据中心可以继续为Facebook提供相应服务。
微软
微软在苏格兰奥克尼群岛海岸线附近的水域中部署了潜水艇式水下数据中心。微软将一艘40英尺长的船沉入位于苏格兰近海的奥克尼群岛海岸,该数据中心有12个机架,共有864台服务器。微软表示,它可以在无需维护的情况下保存数据和处理信息长达五年。
微软选择建立水下数据中心的目的是提高近水地区的网络速度,这些地区通常缺乏基础设施。而视频流和游戏需要更强大的基础处理设施才能连接到互联网。微软英国首席执行官辛迪罗斯周三表示:“全球近一半的人口生活在大片水域附近,让数据中心离数十亿网民更近将确保更快、更顺畅的网络浏览、视频流和游戏,同时企业可以享受人工智能驱动的技术。”
利用海水、湖水降温不止微软一家。中国的阿里巴巴利用千岛湖对服务器进行冷却,这种方式也使其年均PUE低于1.3,最低可达到1.17。
谷歌
几年前,谷歌通过旗下的DeepMind,开始研究如何利用机器学习更好地冷却其数据中心。不过当时系统只是提出建议,而人工操作员则决定是否实施这些建议。
而近日,根据外媒报道,谷歌已经通过AI来降低其数据中心的运营成本。最新的DeepMind建立起了足够有用的模型,可以让人工智能供电系统完全控制环境冷却。新的冷却系统已经在一些谷歌的数据中心就位。每隔5分钟,系统就会轮询数据中心内的数千个传感器,并根据这些信息作出*操作。当然,这里有各种各样的制衡机制,因此谷歌的一个数据中心因为这种机制而陷入瘫痪的可能性很小。
DeepMind和大多数机器学习模型一样,这个模型在收集了更多数据后会变得更好。与数据中心的历史能源使用量相比,它现在平均能够节省30%的能源。
值得注意的是,谷歌显然是在试图节省开支,但在很多方面,该公司也把这看作是一种推广自己机器学习服务的方式。毕竟,能够在数据中心起作用的东西也应该在大型办公楼里起作用。DeepMind的*人员在声明中写道:“从长远来看,我们认为有可能将这项技术应用到其他工业领域,在更大规模的范围内帮助应对气候变化。”
以上内容就是小编今天整理的内容,在AI和网络边缘计算等技术的驱动下,数据中心的运营成本正在逐渐减低。科技巨头之间的博弈,不仅仅需要技术与产品的革新,更是一场持久的消耗战。谁笑得最久,谁笑道最后。