智能算力时代金融数据中心如何应对绿色节能挑战.docx
-
资源ID:68556251
资源大小:293.79KB
全文页数:9页
- 资源格式: DOCX
下载积分:50金币
快捷下载
会员登录下载
微信登录下载
三方登录下载:
微信扫一扫登录
友情提示
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
|
智能算力时代金融数据中心如何应对绿色节能挑战.docx
智能算力时代,金融数据中心如何应对绿色节能挑战数字经济时代,算力是国民经济发展的重要引擎,是衡量经济发展新的核心指标之一。随着各行各业对算力需求的增加,算力设备产生的热量也在不断增加,为了使芯片等主要部件能在比较适宜的温度下工作,发挥出最佳性能,数据中心需要加大对设备散热系统的投入力度。此外,“东数西算”工程对八大枢纽节点数据中心的电能利用效率(PUE)等能耗技术指标提出了更高的要求。基于此,液冷技术将成为数据中心的主要散热技术,数据中心也将逐步迈入液冷时代。一、采用液冷技术的必要性1.政策必要性随着各行各业数字化转型的深入,数字产业化进程也不断加快,数据中心需要不断加强建设来支撑云计算、高性能计算(HPC)和大数据的发展。当前,数据中心用电量占全社会用电量的2.7%,预计2025年将达到4%,能耗持续提高,节能降耗已是大势所趋,必须通过先进的技术手段,促进国家“双碳”目标的达成。近年来,国家高度重视数据中心建设,发改委发布的关于加快构建全国一体化大数据中心协同创新体系的指导意见要求,在京津冀、长三角、粤港澳大湾区、成渝等重点区域,以及部分能源丰富、气候适宜的地区布局大数据中心国家枢纽节点,到2025年,全国范围内数据中心形成布局合理、绿色集约的基础设施一体化格局,西部数据中心实现结构性平衡。根据工业和信息化部印发的新型数据中心发展三年行动计划(20212023年),新建大型及以上数据中心PUE需降低到1.3以下,严寒和寒冷地区力争降低到1.25以下,数据中心降低PUE已经成为必然。液冷技术不仅能够满足数据中心高密度、低能耗的发展需求,还将驱动数据中心各种配置和部件进行优化和创新,更将为数据中心节能降耗提供无限可能。2.技术必要性一是摩尔定律放缓导致芯片算力与功耗同步提升。随着非结构化数据处理需求的爆发式增长,单芯片算力得到大幅提升,进而使主流服务器处理器单CPU功耗突破350W,单GPU芯片功耗突破700W,传统的散热方式面临极大挑战。二是芯片算力密度提升带来单柜功耗上升。根据开放数据中心委员会(ODCC)调研数据,芯片的演进和服务器功率的提升,驱使数据中心能耗密度提升,未来,1530kW计算型服务器单机柜将成为主流,AI集群算力密度达50kW+/柜。传统风冷数据中心单柜密度为810kW,已经不能满足未来单柜高密度算力的需求,液冷技术将成为大功率芯片和高密度算力机柜的最佳散热技术。3.经济必要性采用服务器液冷技术进行全部部署和局部部署的数据中心可以称为液冷数据中心。单柜液冷服务器功率密度越高,液冷投资成本(包括CDU、管路、液冷机柜等)分摊到每台服务器的成本就越低。随着运营年限的增加,全液冷数据中心总拥有成本(TCO)较风冷数据中心TCO显著降低,到第5年全液冷数据中心TCO较风冷数据中心TCO可降低12.65%(如图1所示)。图1 风冷和液冷数据中心TCO对比二、液冷技术应用场景分析1.云数据中心在云数据中心,计算密集型服务器占比60%,存储密集型服务器占比30%,网络设备占比10%。其中,计算密集型服务器因主要发热器件为主芯片(CPU或GPU)和内存,通过主芯片冷板和内存冷板液冷散热,可带走80%的热量,因此比较适合部署液冷基础设施;而存储密集型服务器硬盘较多,内存配置少,CPU不采用性能和功耗较高的型号,发热器件不集中,采用液冷技术投资收益不高,因此无需部署液冷基础设施。云数据中心机房通常采用大规模模块化机房架构,将一层楼划分为多个模块化机房,可以在同一个大的模块化机房内进行高密计算型液冷微模块、风冷网络和管理微模块、风冷存储型微模块的混合部署。风冷与液冷在一个模块化机房混合部署即可以实现液冷方案机柜级别的应用灵活部署,在获得较低PUE的同时,又可以平衡TCO收益,是目前云计算液冷数据中心的主流建设模式。2.AI深度学习集群随着云计算、大数据、AI等新技术的发展,金融业正步入金融与科技结合的新阶段智能金融阶段,这是金融与科技融合发展的必然结果,其中,支付、个人信贷、企业信贷、财富管理、资产管理、保险等六大板块是智能金融未来发展的重中之重。从智能获客到大数据风控,全链条智能化的技术能力成为个人信贷领域的核心竞争力。智能技术在投资偏好洞察和投资资产匹配环节能极大降本提效,实现高效、低费、覆盖更广泛的目标。因此,AI技术正在成为智能金融阶段的核心支撑。某咨询报告预测,到2030年,全球通用计算算力将达到3.3ZFLOPS(ZFLOPS等于每秒10的21方次浮点运算),增长10倍;而全球AI算力将超过105ZFLOPS,增长500倍。随着AI算力需求的爆发式增长,单个GPU功耗已经发展到500W、700W,风冷技术已无法支撑。从服务器整机的角度来看,为了满足算力增长的需要,服务器节点与服务器集群算力将趋向高密度,散热成为数据中心必须面对的关键问题,而液冷技术正好可以解决这一问题。3.高性能计算高性能计算(HPC)是通过高速网络将大量服务器进行互联形成计算机或异构加速集群,与高性能存储一起求解科研、工业界最复杂的科学计算问题。HPC广泛应用于环境预测、基因测序、材料制造、天文测量、能源勘探、制造仿真等领域。HPC解决方案包括计算集群、胖节点、存储集群等,而全液冷方案比较适合HPC的计算集群。三、液冷技术简介根据液体与发热器件接触的方式,液冷技术可分为非接触式液冷和接触式液冷,液冷服务器可分为非接触式的冷板、接触式的浸没与喷淋等技术方向;根据工质是否发生相变,液冷技术可分为单相液冷和两相液冷。冷板式液冷已经在HPC、AI高密计算领域商用超过8年时间,实现了技术成熟、生态完善、成本可控。冷板式液冷不改变客户的使用习惯,硬盘、光模块等部件与风冷一致,运维简单高效,机房承重与风冷基本一致,同时可以降低数据中心PUE,适合规模商用。浸没式液冷可以获得更好的PUE值,近年来逐步应用于云数据中心,但是其部件需要定制,价格昂贵、工质沉重且有挥发性,需要专用维护设备进行维护,机房承重要求高。未来,随着工质和定制部件价格的降低,浸没式液冷也将在高功率密度机柜中得到一定的应用。四、金融领域对于液冷技术的需求互联网数据中心2020年全球计算力指数评估报告显示,从国家层面来看,美国和中国是国家计算力的领跑者,尽管中国与美国相比仍有一定差距,但中国的各项指标增速均高于美国。报告给出了针对性建议:中国需要在各个层面进一步增加投入,如聚焦提高计算效率,在扩大数据中心规模的同时提高能效管理水平等。从全球行业计算力水平排名的维度来看,金融业位居第三。金融业是算力高地,“高”体现在高稳定、高性能、高可靠上。如果设备厂商的产品和解决方案在金融业获得认可,可以说就获得了各行业的“通行证”。数据中心是算力的物理承载,是数字化发展的关键基础设施。从我国大型银行和大型保险公司的数据中心分布情况来看,北京有15个,上海有13个,合肥有4个,武汉有3个、深圳有3个、成都有2个、呼和浩特有2个、佛山有2个。可见,金融业数据中心以北京、上海两地为主要集中地。相比于西部地区,这些地区数字经济更发达和活跃,但土地资源匮乏、电力资源紧张,新建数据中心将受到严格限制,且所处地理位置年平均气温较高。因此,数字经济发达地区数据中心节能降耗的问题更加突出。当前,采用液冷技术对数字经济发达地区数据中心的升级改造以及获得更高的算力密度、更多的机柜空间具有非常大的价值。随着“东数西算”战略的推进以及算力密度的提升,特别是人工智能算力的持续增长,液冷技术将进一步在数据中心释放潜能。目前,液冷技术已经成为国家级大型数据中心降低PUE的主要技术之一。相较于其他液冷技术,冷板式液冷技术具有经济性、易运维的优势以及较高的商用价值。为了更好地服务金融行业用户,IT产业正在与其进行深入合作,寻求最优解决方案,建设绿色数据中心。9