在一篇关于“奇点”的浪漫化文章中,OpenAI 首席执行官萨姆·奥特曼(Sam Altman)无意中揭示了人工智能能耗的一个有趣细节:单个 ChatGPT 请求平均消耗 0.34 瓦时电力和 0.000085 加仑水。这一数字乍听之下似乎微不足道,大致相当于 2009 年谷歌搜索的能耗,但奥特曼在强调这一“低能耗”时,却忽略了一个关键因素:ChatGPT 人均处理的请求量可能远超当年谷歌搜索的平均水平。
奥特曼的“浪漫化”描述,或许意在强调技术进步带来的能效提升,然而,随着多模态系统、智能代理和高级推理引擎等新型人工智能模型对计算能力的需求呈爆炸式增长,数据中心的快速扩张已然成为不争的事实。这些庞大基础设施的建设和运营,无疑预示着人工智能系统的整体能耗需求将持续攀升。
我们不能简单地将 ChatGPT 的单次查询能耗与过去的谷歌搜索进行比较,而忽视了当前人工智能应用所承载的巨大任务量和复杂性。无论是文本生成、图像识别还是更复杂的决策支持,每一步都离不开高强度计算的支撑。这种对算力的无限渴求,使得数据中心在不断扩建的同时,也面临着巨大的能源挑战。
因此,奥特曼提及的 ChatGPT 能耗数据,与其说是一个令人欣慰的数字,不如说是一个提醒。它促使我们深入思考:在追求人工智能无限潜力的同时,如何有效管理并降低其日益增长的能耗,将是未来科技发展中不可回避的重大议题。这不仅仅是技术层面的挑战,更关乎可持续发展和全球能源战略的布局。