抢米网-揭秘ChatGPT背后的肮脏秘密,AI巨头要牺牲环境吗?
跟着ChatGPT的爆红,微软、谷歌、百度相继宣布对他们的查找引擎进行重大改革,试图将大型人工智能模型整合到查找中,以便给用户供给更丰富、更准确的体验。可是兴奋之余,新工具背面或许隐藏着一个“肮脏的隐秘”。
抢米网,构建高性能人工智能查找引擎的竞赛很或许需求核算才能的大幅提高,它所产生的结果将是科技公司所需动力和碳排放量的大幅添加。
英国萨里大学网络安全教授艾伦伍德沃德(Alan Woodward)表明:“已经有很多资源被用于索引和查找互联网内容,但人工智能的整合需求一种不同的火力。它需求处理才能、存储和高效查找。每当咱们看到在线处理的步骤变化时,咱们就会看到大型处理中心所需的电力和冷却资源的明显添加。我认为人工智能的整合或许是会走这一步。”
碳排放大增
练习大型言语模型(LLMs)意味着在很多数据中解析和核算链接,这便是为什么它们往往是由具有很多资源的公司开发的原因,比方为微软必应查找供给动力的ChatGPT,为谷歌聊天机器人“巴德”(Bard)供给支持的那些言语模型。
“练习这些模型需求很多的核算才能,”西班牙科鲁尼亚大学(University of Corua)核算机科学家卡洛斯戈麦兹罗德里古兹(Carlos Gmez-Rodrguez)表明,“现在,只要大型科技公司才能练习他们。”
微软已在必应中整合ChatGPT
虽然OpenAI和谷歌都没有泄漏其产品的核算成本是多少,但研讨人员发布的第三方剖析估计,ChatGPT部分依靠的GPT-3模型的练习会耗费1287兆瓦时电力,产生550多吨的二氧化碳当量,相当于一个人在纽约和旧金山之间往返550次。
“这个数字看起来没有那么糟糕,但你有必要考虑到这样一个现实:你不仅要练习它,还要执行它,为数百万用户服务。”罗德里古兹表明。
并且,把ChatGPT作为一个独立产品运用与把它整合到必应中还有很大不同。投行瑞银估计,ChatGPT日均独立拜访用户为1300万。相比之下,必应每天要处理5亿次查找。
加拿大数据中心公司QScale联合创始人马丁布查德(Martin Bouchard)认为,依据他对微软和谷歌查找方案的了解,在查找过程中添加生成式人工智能,需求“每次查找至少添加4到5倍的核算量”。
为了满意查找引擎用户的需求,企业有必要做出改动。“如果他们要经常从头练习模型,并添加更多参数之类的东西,这是一个彻底不同的规模,”布查德表明,“这将需求在硬件上进行很多投资。咱们现有的数据中心和基础设施将无法应对生成式人工智能的耗费。它们对性能的需求太高了。”
怎么削减碳排放?
依据国际动力署发布的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的1%左右。跟着云核算需求的增长,这一数字估计还会上升,但运营查找引擎的公司已承诺削减它们对全球变暖的净贡献。
微软已经承诺到2050年完成碳负排放,该公司方案本年购买150万吨碳信誉额。碳信誉又称碳权,是指排放1吨二氧化碳当量的温室气体的权利。谷歌承诺到2030年在其整个业务和价值链完成净零排放。
关于这些巨子来说,削减将人工智能整合到查找中的环境脚印和动力成本的一个方法便是将数据中心转移到更清洁的动力上,并从头规划神经网络让让变得更高效,削减所谓的“揣度时刻”,也便是算法处理新数据所需的核算才能。
“咱们有必要研讨怎么削减这种大型模型所需求的揣度时刻,”谢菲尔德大学自然言语处理讲师纳菲斯萨达特莫萨维(Nafise Sadat Moosavi)表明,她致力于自然言语处理的可持续性研讨,“现在是重视效率方面的好时机。”
谷歌发言人简帕克(Jane Park)表明,谷歌最初发布的“巴德”版别是一个由轻量级大型言语模型支持的版别。“咱们还发表了一项研讨,具体介绍了最先进言语模型的动力成本,包括前期和更大版别的LaMDA,”帕克称,“咱们的研讨结果表明,将高效的模型、处理器和数据中心与清洁动力相结合,可以将机器学习体系的碳脚印削减1000倍。”