天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修

算力狂飙电力承压 英伟达、英特尔争相推出节能方案

算力狂飙电力承压 英伟达、英特尔争相推出节能方案

当地时间8月26日,OpenAI硬件设施负责人Trevor Cai在Hot Chips 2024上发表了(le)长(zhǎng)达(dá)一小时的演讲,主题为“构建可(kě)扩展的AI基础设施”。他指(zhǐ)出,OpenAI的一项重要(yào)观察结果(guǒ)是,扩大规模可以(yǐ)产生更好、更有用(yòng)的人工智能(AI)。

作为(wèi)全 球芯片行业影响力(lì)最(zuì)大(dà)的会议之一,Hot Chips于每年8月份在(zài)斯坦福大学举行(xíng)。不同于其他行业(yè)会议以学术研究为主,Hot Chips是一场产业界的盛会(huì),各(gè)大处理器公司会在每年的会上展现他们最(zuì)新的产品以及在研的产(chǎn)品。

《每日经济新闻》记者注意(yì)到,AI浪潮(cháo)推动数据中心(xīn)激增,同时也(yě)伴随(suí)着能源需求的激(算力狂飙电力承压 英伟达、英特尔争相推出节能方案jī)增。在这样的背景下,此次的Hot Chips大会 上,围绕人工智能的议(yì)题比以往任何(hé)一届都更加活跃(yuè)。Trevor Cai的演讲着眼于解决能源和算力(lì)之间的问题 ,英特尔、IBM和英伟达等则是提出(chū)了更节能(néng)的技术方案。

摩根士丹利(lì)在8月份(fèn)发布的研究中预测(cè)称,生成(chéng)式(shì)AI的电力需求将(jiāng)在未来几年内每年飙升(shēng)75%,预(yù)计到2026年,其(qí)消耗的能源(yuán)量将与西班(bān)牙在2022年的(de)消耗量相当。科技巨头(tóu)们(men)该如何应对能源挑战?

聚焦(jiāo)“节能(néng)方案”

当地时间8月26日,一年一度的半导体企业(yè)盛会Hot Chips2024在(zài)斯(sī)坦福大学纪念礼堂举行,今年是(shì)第36届。

从会议第一天的情况来看,大部分的话题都集中在了更节能、安全且可扩展的大规模AI服务器部署方案(àn)上。

OpenAI硬件负责人Trevor Cai发表(biǎo)了“可预测的(de)扩展和基础设施(shī)”主题演讲,谈到了(le)提升(shēng)计算能力(lì)所带来的可预测的扩(kuò)展效益(yì),这也是OpenAI自成立之初就关注的重点 。一个重要的(de)观察结(jié)果是,扩大规模可以产生更好、更有用(yòng)的人工智能。“每次 计算量翻倍,都会得到更好的结果。模型的能力和计算资源的消(xiāo)耗是呈指数级别上升的。自2018年以来,行业中前沿模型的计(jì)算(suàn)量每年增长约4倍。”他说道。

最初,GPT-1只需几周的时间完成训练。如今,它已经扩展到需要庞大的GPU集群。因此,OpenAI认为AI的基础建设需要大(dà)量投资,因为计算能(néng)力的提升已经产生了超过8个数量级的效(xiào)益。

似乎是 为了呼应OpenAI的演讲(jiǎng),各大公司的演(yǎn)讲也不约而同地提到了大规模部署AI服务器的计划方案。

IBM在大会上(shàng)披露(lù)了即(jí)将推出的(de)IBM Telum II处理器和IBM Spyre加速器的架构 细节。新技术旨在(zài)显著扩展下一代IBM Z大型机系统的(de)处理(lǐ)能(néng)力(lì),通过一种新的(de)AI集成方法帮(bāng)助加(jiā)速传统AI模型和大型语言 AI模型的协同使(shǐ)用 。IBM特别强调这次更新的先进(jìn)I/O技(jì)术旨(zhǐ)在降低能耗和数据(jù)中心占用空间(jiān)。

英(yīng)伟达也在大(dà)会(huì)上(shàng)放出了最新的AI集群架构Blackwell的相关消息。英伟达称,Blackwell拥有6项革命性技术,可支持多(duō)达10万亿参数的模型进行AI训练和实 时大语言(yán)模型(LLM)推理。值得注意的(de)是(shì),英伟(wěi)达的Quasar量化系统用(yòng)于(yú)确定(dìng)可以使(shǐ)用较低精度的内容,从而减少计算和存(cún)储。英伟(wěi)达表示他们的(de)宗(zōng)旨就是在提高能源效率的同时为AI和加速计算性能提供新标准。

除此之外,英特尔、博通、海(hǎi)力士等公司的演讲中均提到了更节能(néng)的技术方案。

能源需求(qiú)激增

科(kē)技巨头们着眼“更节能的”技术方案的根本原因在于,当前人工智能热潮正在增加更强大的 处理器以及(jí)保持数据中心(xīn)冷却所需的能源需求。

当前,微软、Alphabet和Meta等大型科技公司正(zhèng)在投资数十亿美元建设数据中心基础设施,以(yǐ)支持生成式人工智能,但数据中心的激增也伴随着能源需(xū)求的(de)激增。

据彭(péng)博社报道(dào),仅去年,大(dà)型(xíng)科技公司就向(xiàng)数据中心设施投入了约1050亿美元(yuán)。谷歌(gē)、苹果和特斯拉等公司不断通过新产 品和服务增(zēng)强AI能力。每(měi)项AI任务(wù)都需要巨大(dà)的计算能力,这意味着数据(jù)中心会消耗大量电力。国(guó)际能(néng)源署(IEA)预测,到2026年,全球数据中心每年(nián)使(shǐ)用的能源量将相当于日本的电力消耗量。

Hugging Face的人工智能和气候负责人Sasha Luccioni提到,虽然训练AI模型需要耗费大量能源(例如(rú),训练 GPT-3模(mó)型耗费了大(dà)约1300兆瓦(wǎ)时的电力,而GPT-4的训练消耗是GPT3的50倍),但通常只(zhǐ)进行一次。然而,由于查询(xún)量巨大,模(mó)型生成响(xiǎng)应可能(néng)需要更多能(néng)源。

例如,当用户向ChatGPT等AI模型提问时,需要向数据中心发送请求,然后强大的(de)处理器(qì)会生成响应。这个过程虽然很快,但(dàn)消耗的(de)能量也是巨大的。根据艾(ài)伦人工智 能(néng)研究所的数据,对(duì)ChatGPT进(jìn)行一次查(chá)询所消耗(hào)的电量相当于为灯泡点(diǎn)亮20分钟,是简(jiǎn)单Google搜索耗电量的10倍以上(shàng)。

然而,全球(qiú)的电力资源(yuán)有限,而数据中心需要持续稳定的电力供应来运行服务器和其他核心运营设备。如(rú)果 能源(yuán)供应不稳定,停机可(kě)能会给(gěi)企(qǐ)业和其他用户造(zào)成重大经济损失 。此外,巨大的能源消 耗也引发了(le)人们对环境的担(dān)忧。

为应对这一挑战,科技公司们开 始寻找解决方案。

部分公司选择更清(qīng)洁且高效的能源(yuán)供给(gěi),如(rú)核(hé)能。亚马(mǎ)逊最近(jìn)在美国宾夕法尼亚州东北部购买了一个价值(zhí)6.5亿(yì)美元的(de)核能(néng)数据中心园区设施,该设施将使用核反应堆产生的高达40%的电力,最终使亚马逊能够减少对当地电网的依赖。与此同时,微软聘请(qǐng)了核(hé)专家来带头寻找这种替代电源。微软还与核电站运营(yíng)商签订了 合同(tóng)协(xié)议,为其位于弗吉尼亚州的一个数(shù)据中(zhōng)心提供电力。

除此之外,科技公司们(men)不仅在前文所提到的一系列芯片节能技算力狂飙电力承压 英伟达、英特尔争相推出节能方案术进行努力,也在其他硬件设施和技术(shù)上下足了功夫。

谷歌(gē)正在开发人工智能专用(yòng)芯片,例如张量处(chù)理单元(TPU),这(zhè)些芯(xīn)片针对人(rén)工智能(néng)任务(wù)进行了 优化,而不(bù)是使用为游戏技术创建的图形处理单元(yuán)(GPU)。

英(yīng)伟(wěi)达(dá)针对Blackwell芯片的直接液体冷却系统还宣布了一项研究(jiū),研究表明了如何重新利用从(cóng)服(fú)务器(qì)中吸收的热量并(bìng)将其回收到数据中心。据英伟达估计,冷却最多可减少数据中心设施耗电量的28%。

然而,威斯康星大学麦迪逊(xùn)分(fēn)校的教授 辛克莱提醒,杰文斯悖论在这里依然适用。“提高人工智能(néng)的效率,虽然减少了(le)单(dān)次能耗,但整体使用率的增加最终(zhōng)会(huì)导致总体能耗的上升。”辛克莱解释道。这个悖 论不仅适用于19世纪的(de)火车煤炭使用(yòng),同样(yàng)适用(yòng)于当今的(de)人工(gōng)智能和电力消耗。

未经允许不得转载:天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修 算力狂飙电力承压 英伟达、英特尔争相推出节能方案

评论

5+2=