智能算力时代金融数据中心如何应对绿色节能挑战.docx
《智能算力时代金融数据中心如何应对绿色节能挑战.docx》由会员分享,可在线阅读,更多相关《智能算力时代金融数据中心如何应对绿色节能挑战.docx(9页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、智能算力时代,金融数据中心如何应对绿色节能挑战数字经济时代,算力是国民经济发展的重要引擎,是衡量经济发展新的核心指标之一。随着各行各业对算力需求的增加,算力设备产生的热量也在不断增加,为了使芯片等主要部件能在比较适宜的温度下工作,发挥出最佳性能,数据中心需要加大对设备散热系统的投入力度。此外,“东数西算”工程对八大枢纽节点数据中心的电能利用效率(PUE)等能耗技术指标提出了更高的要求。基于此,液冷技术将成为数据中心的主要散热技术,数据中心也将逐步迈入液冷时代。一、采用液冷技术的必要性1.政策必要性随着各行各业数字化转型的深入,数字产业化进程也不断加快,数据中心需要不断加强建设来支撑云计算、高性
2、能计算(HPC)和大数据的发展。当前,数据中心用电量占全社会用电量的2.7%,预计2025年将达到4%,能耗持续提高,节能降耗已是大势所趋,必须通过先进的技术手段,促进国家“双碳”目标的达成。近年来,国家高度重视数据中心建设,发改委发布的关于加快构建全国一体化大数据中心协同创新体系的指导意见要求,在京津冀、长三角、粤港澳大湾区、成渝等重点区域,以及部分能源丰富、气候适宜的地区布局大数据中心国家枢纽节点,到2025年,全国范围内数据中心形成布局合理、绿色集约的基础设施一体化格局,西部数据中心实现结构性平衡。根据工业和信息化部印发的新型数据中心发展三年行动计划(20212023年),新建大型及以上
3、数据中心PUE需降低到1.3以下,严寒和寒冷地区力争降低到1.25以下,数据中心降低PUE已经成为必然。液冷技术不仅能够满足数据中心高密度、低能耗的发展需求,还将驱动数据中心各种配置和部件进行优化和创新,更将为数据中心节能降耗提供无限可能。2.技术必要性一是摩尔定律放缓导致芯片算力与功耗同步提升。随着非结构化数据处理需求的爆发式增长,单芯片算力得到大幅提升,进而使主流服务器处理器单CPU功耗突破350W,单GPU芯片功耗突破700W,传统的散热方式面临极大挑战。二是芯片算力密度提升带来单柜功耗上升。根据开放数据中心委员会(ODCC)调研数据,芯片的演进和服务器功率的提升,驱使数据中心能耗密度提
4、升,未来,1530kW计算型服务器单机柜将成为主流,AI集群算力密度达50kW+/柜。传统风冷数据中心单柜密度为810kW,已经不能满足未来单柜高密度算力的需求,液冷技术将成为大功率芯片和高密度算力机柜的最佳散热技术。3.经济必要性采用服务器液冷技术进行全部部署和局部部署的数据中心可以称为液冷数据中心。单柜液冷服务器功率密度越高,液冷投资成本(包括CDU、管路、液冷机柜等)分摊到每台服务器的成本就越低。随着运营年限的增加,全液冷数据中心总拥有成本(TCO)较风冷数据中心TCO显著降低,到第5年全液冷数据中心TCO较风冷数据中心TCO可降低12.65%(如图1所示)。图1 风冷和液冷数据中心TC
5、O对比二、液冷技术应用场景分析1.云数据中心在云数据中心,计算密集型服务器占比60%,存储密集型服务器占比30%,网络设备占比10%。其中,计算密集型服务器因主要发热器件为主芯片(CPU或GPU)和内存,通过主芯片冷板和内存冷板液冷散热,可带走80%的热量,因此比较适合部署液冷基础设施;而存储密集型服务器硬盘较多,内存配置少,CPU不采用性能和功耗较高的型号,发热器件不集中,采用液冷技术投资收益不高,因此无需部署液冷基础设施。云数据中心机房通常采用大规模模块化机房架构,将一层楼划分为多个模块化机房,可以在同一个大的模块化机房内进行高密计算型液冷微模块、风冷网络和管理微模块、风冷存储型微模块的混
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 智能 时代 金融 数据中心 如何 应对 绿色 节能 挑战
限制150内