微软、谷歌和Meta正在投资数十亿美元开发生成型人工智能(AI),如在加州旧金山发布的大语言模型ChatGPT。这些模型具备的特点使得它们比之前的模型更加强大,但也对环境造成了更重的负担。近日在Nature上发布的一篇短讯文章,提出了一个更可持续的生成型AI开发框架。文章指出复杂度的增加可以让大型语言模型产生智能文本,但消耗的电力会远高于之前的版本。根据2022年发货的AI训练专用GPU数量,全年总计可能消耗约95亿度电力。这一能耗水平约等于一个中等发达国家100万人口的年度生产和生活用电需求。随着硬件变得越来越复杂,巨大数据集训练速度和容量增长的同时,必将推动产生新的能源需求。因此开发生成型AI时,可以通过调整模型的结构、推广节能硬件、使用
清洁能源和优化AI模型运作方式来减少无效训练的数量,达到减少
碳排放的效果。
【版权声明】本网为公益类网站,本网站刊载的所有内容,均已署名来源和作者,仅供访问者个人学习、研究或欣赏之用,如有侵权请权利人予以告知,本站将立即做删除处理(QQ:51999076)。