科研中的碳排放
用特定类型的“神经架构搜索”(NAS)方法训练一种语言模型将产生284吨二氧化碳,进行一次基因组组装就可能产生15千克的碳排放,一座天文台在使用期限内将产生2000万吨二氧化碳。
在GRAND为期五年的原型阶段期间,数据传输将排放470吨二氧化碳,大约相当于270次从巴黎到敦煌航班的碳排放,每年通过飞机运输四次硬件的碳排放量比在线传输数据要少几个数量级。
“技术进步依赖于科学,我们不能因噎废食。如果因为科研要减排而减少科研方面的能源投入,那肯定是不行的。我们不减少能源投入,但可以减少碳排放。”
(本文首发于2022年12月1日《南方周末》)
责任编辑:曹海东
科学研究是“昂贵”的。
这不仅说的是科学研究耗费高昂,而且也指向科学研究对地球生态潜在的负面影响——科研本身就会产生大量碳排放。
南方周末记者检索相关论文发现,自然语言处理、生物科学研究、天文学研究等领域的碳排放问题正在引起科研人员的注意。最直观的例子是大型计算机,天体物理、人工智能等研究领域都依赖大型计算机对海量的数据进行加工处理,而大型计算机的运行过程将产生大量的碳排放。
与工业生产、交通物流、房地产建筑等碳排放“大户”相比,科学研究不是高耗能的领域,不过,有学者呼吁,科学界应当采取措施,尽可能地减少研究过程中的温室气体排放。
碳中和领域专家、《碳中和时代》一书作者汪军向南方周末记者表示,减碳并非科学家的首要工作,但可以通过逐渐提升电力的绿色化等方式来减排,“不过这属于能源等其他部门的工作,不应该因此而占据科学家的精力”。
研究设施碳排放
大数据时代,科研人员需要频繁处理海量数据,而这离不开具有强大算力的计算机和大型数据中心。
例如在计算机研究的自然语言处理领域,2019年发表的一项研究发现,自2017年以来,大型语言模型的能源消耗和碳排放一直呈爆炸式增长。语言模型是自然语言处理研究中重要的一环,机器翻译、聊天机器人等技术都与语言模型有关。
研究显示,使用特定类型的“神经架构搜索”(NAS)方法训练一种语言模型将产生284吨二氧化碳,大约相当于五辆普通美国汽车在使用寿命内的全部碳排放(美国汽车使用寿命平均约为12.1年)。
上述研究发布于第五十七届国际计算语言学年会,南方周末记者检索发现,这篇文章已经引起了许多研究人员的重视,截至2022年11月11日,谷歌学术显示,该论文已被引用大约1700次。
香港中文大学(深圳)理工学院副教授赵俊华多年来从事电力系统和能源经济方面的研究,他以人工智能研究为例向南方周末记者指出,研究者需要大量地应用显卡和GPU(关于图像和图形相关运算工作的微处理器)进行数据训练,从而产生能耗。
这些数据任务通过云计算的方式在大型数据中心中进行。数据中心的主要功能是进行
登录后获取更多权限
网络编辑:蓁蓁