生成AI模型“口渴”了
随着人工智能的不断发展,生成式人工智能模型的用户数量正在迅速增加。仅ChatGPT就拥有大约1亿用户。现在,您可以免费在几秒钟内完成原本需要很长时间才能完成的任务。然而,这些卓越的能力也存在一个隐藏的代价,即其环境影响。随着其使用量增加,我们需要了解这些模型的环境影响并探索可能的解决方案。
虽然目前很少有数据可以详细了解这些模型对环境的影响,但加利福尼亚大学河滨分校和德克萨斯大学阿灵顿分校的研究人员通过他们尚未经过同行评审的论文《让人工智能变得更少“口渴”:揭开和解决人工智能模型的水秘密》(Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models),揭示了这些模型在训练和部署时占用的显著水资源。
生成式 AI 模型,如 ChatGPT、LaMDA,需要大量的计算能力,包括强大的服务器和庞大的数据中心。这些基础设施在训练和部署这些模型时都扮演着重要的角色,它们被认为是高能耗的,并占全球电力使用量的 2% 和大量碳排放。但是,很少有人知道这些数据中心为冷却这些系统消耗了大量清洁淡水。
在微软先进的数据中心训练GPT-3模型的过程可能会消耗惊人的70万升干净、清新的水。如果训练在亚洲数据中心进行,这个数量可能会轻易翻倍。此外,即使是使用这些模型进行任务的推理,也可能需要大量资源。例如,仅与ChatGPT进行20-50个问题的简单对话,就可能消耗约500毫升的水。考虑到可能有数十亿的用户使用这样的模型,这个水消耗量变得非常重要。对于更复杂的模型,如ChatGPT-4、LaMDA,这个足迹呈指数级增长,必须在为时已晚之前解决这个问题。
‘何时’和‘何地’很重要!
AI模型训练的时间和地点对水足迹产生明显的影响。例如,外部温度会影响冷却数据中心所需用水量。因此,公司可以选择在更凉爽的时间,如午夜,训练这些AI模型,或利用更高效的水处理设备来最小化用水量。聊天机器人用户也有选择在“节水”时间与聊天机器人交互,这有助于减少用水量。通过将节水时间表纳入AI模型训练中,我们可以努力减少水足迹。然而,对于开发这些模型的技术公司来说,透明地了解这些需求方改变是至关重要的。
鉴于对AI的日益依赖,采取早期行动以最小化这些资源密集型系统的用水量对于避免更大的环境威胁至关重要。这可能涉及增强数据中心中的冷却机制,开发需要更少计算资源的算法,并采用可再生能源来为数据中心供电。此外,可以考虑探索水的回收利用和实施节水冷却技术等措施,以缓解AI对水资源的影响。
AI模型的水足迹不再可以忽略。解决水足迹已成为我们集体努力解决全球水资源挑战的重要优先事项。
参考文献:
- 减少AI的“口渴”:揭示并解决AI模型的秘密水印象