当你在键盘上敲下问题,等待AI给出答案时,或许不会想到,这个无形无影的智能助手正在经历一场特殊的“饮水”过程。近期有研究披露,以DeepSeek为代表的热门AI模型,每次生成回答需消耗上百毫升水资源。OpenAI首席执行官萨姆·奥特曼也曾公开表示,GPT处理单个问题的耗水量约为0.3毫升。尽管单次消耗看似微不足道,但全球每日数亿次的AI交互量,使得累计耗水量远超想象。
AI的“饮水”行为实为服务器散热的隐喻。支撑AI运算的CPU、GPU集群在高速运转时会产生海量热量,若不及时冷却将导致系统崩溃。这种物理层面的降温需求,正是AI耗水的核心根源。在科技节目《日出东方 科技追光》中,认知专家王昱珩用生动比喻解释了这一原理:“就像人体发烧时先用扇子降温,无效时改用湿毛巾,极端情况下需要输液,服务器散热也遵循类似的逻辑层级。”
当前主流的冷却方案包含三大类型:风冷系统通过机箱风扇加速空气流动,相当于人体扇风;冷板技术采用液态介质间接传导热量,类似湿毛巾敷额;浸没式液冷则直接将硬件浸入冷却液,如同将发热器官浸入冰水。这种效率最高的方案,每处理10-50个ChatGPT查询至少消耗500毫升水,具体数值受部署环境与时间因素影响呈现波动。
尽管浸没式液冷效率显著,但其推广面临多重阻碍。冷却介质主要分为油类与氟化液两大阵营:合成油成本低廉但存在易燃、酸化腐蚀等问题,需定期更换且影响信号传输;氟化液性能优异却含有毒PFAS物质。与此同时,国家对数据中心电源使用效率(PUE)提出严苛要求,新规将标准值限定在1.25以下。这意味着每消耗2度电,仅有1度用于计算,剩余能量均损耗在冷却等辅助系统上。
全球水资源分布失衡加剧了AI耗水问题的复杂性。虽然水作为可再生资源,其循环特性使得AI的直接环境影响小于电力消耗,但区域性缺水危机日益严峻。《自然》期刊研究指出,在淡水短缺与供水基础设施老化的背景下,AI产业的水资源消耗已成为不容忽视的生态议题。科技企业虽提出“水资源中和”目标,通过生态补水抵消耗水量,但这些措施往往未在数据中心所在地实施。
数据中心选址偏好进一步激化了用水矛盾。为降低成本,企业倾向于在地价低廉、电力充足且监管宽松的区域建设数据中心,而这些地区恰恰普遍面临缺水困境。随着AI产业爆发式增长,全球数据中心数量持续攀升,其规模化用水需求正与农业、民生用水形成激烈竞争,给地球水资源系统带来前所未有的压力。
这场关于计算效率与生态保护的博弈,本质是技术创新与可持续发展的平衡术。AI作为推动文明进步的核心动力,其发展不应以透支水资源为代价。唯有通过材料科学突破与系统优化设计,在性能提升、成本控制与环保责任间找到最优解,才能确保智能革命真正造福人类而非成为生态负担。













