数据中心|数据中心“吃掉”三峡大坝和葛洲坝:科技巨头也得拉闸限电?( 三 )


当然,生态很关键 。只有几家科技巨头发力节能,致力于碳中和作用是相对微小的 。要打通行业上下游,整个产业链一起努力才能加速节能最大化 。”
(四)生而畸形的AI,跳不出耗电的死胡同
尽管科技巨头不断通过一些物理和工程手段去降低数据中心等平台的能耗,但从另外一方面来讲,企业所采用的部分技术,生而不具备绿色基因 。
如当前人工智能的核心驱动技术深度学习,天生需要强大算力和强大功耗支撑,而且模型训练方法异常的粗暴 。
现阶段的AI,并不具备类似人类智慧一样举一反三和推理的能力,它的部分智能建立在“暴力计算”的基础之上 。深度学习的研究内容很简单,就是罗列大量的数字进行运算 。但这种方法无需通过颠覆性模式创新来实现,只需要提高算力,也就是堆芯片量即可 。
2012年6月,谷歌利用16000块芯片,让AI观看数百万段YouTube视频来识别出猫,即便如此仍错误百出,还不如人类眼睛的一瞥高效 。
此外,2016年AlphaGo击败围棋冠军李世石的人机大战中,AlphaGo每局棋需消耗约100万瓦的电能,相当于一天约100户家庭的供电量 。相比之下,人脑消耗的功率仅20瓦,只有AlphaGo的5万分之一 。
真正公平的人机对战,应该在能耗等客观条件对等的情况,进行比拼,否则便跟背着火箭筒的五菱宏光跑赢法拉利超跑无异 。
纵使机器超越了人,但显然很低效,也不绿色 。
不仅仅是过往发生的事件反映了人工智能耗能巨大的问题,外国最新的论文结果也折射出相同的问题:平均一个 AI 大模型训练产生的能耗 = 五辆汽车一生排放的碳总量 。
这篇新论文是马萨诸塞大学阿默斯特校区的研究人员公布的,以常见的几种大型 AI 模型的训练周期为例,发现该过程可排放超过 626000 磅二氧化碳,几乎是普通汽车寿命周期排放量的五倍(其中包括汽车本身的制造过程) 。
数据中心|数据中心“吃掉”三峡大坝和葛洲坝:科技巨头也得拉闸限电?
文章图片

对此结果,很多AI研究人员感到震惊 。
西班牙拉科鲁尼亚大学的一位计算机科学家曾表示:“虽然我们中的很多人对此(能耗)有一个抽象的、模糊的概念,但这些数字表明事实比我们想象得要严重 。我或者是其他 AI 研究人员可能都没想过这对环境的影响如此之大 。”
以自然语言处理为例,研究人员研究了该领域中性能取得最大进步的四种模型:Transformer、ELMo、BERT 和 GPT-2 。研究人员在单个 GPU 上训练了至少一天,以测量其功耗 。然后,使用模型原始论文中列出的几项指标来计算整个过程消耗的总能量 。
结果显示,训练的计算环境成本与模型大小成正比,然后在使用附加的调整步骤以提高模型的最终精度时呈爆炸式增长,尤其是调整神经网络体系结构以尽可能完成详尽的试验,并优化模型的过程,相关成本非常高,几乎没有性能收益 。
以BERT模型为例,其碳足迹约为 1400 磅二氧化碳,这与一个人来回坐飞机穿越美洲的排放量相当 。
数据中心|数据中心“吃掉”三峡大坝和葛洲坝:科技巨头也得拉闸限电?
文章图片

那么,为什么AI模型会如此耗电?
因为与人类的学习方式相比,AI 的训练效率非常低下 。
现代 AI 使用人工神经网络,这是模拟人脑神经元的数学计算 。每两个相邻神经元的连接强度都是神经网络上的一个参数,名叫权重 。神经网络的训练则需要从随机权重开始,一遍遍地运行和调整参数,直到输出与正确答案一致为止 。