普渡大学和佐治亚理工学院研究人员提出采用脑启发算法构建AI计算机架构的新方法。研究显示,传统冯·诺依曼架构中处理器与内存分离造成数据传输瓶颈,随着AI模型规模四年内增长5000倍,能耗问题日益严重。研究团队建议采用脉冲神经网络和存内计算技术,将处理和存储功能集成,突破"内存墙"限制,显著降低AI模型能耗,使AI设备更适用于医疗、交通和无人机等实际应用场景。
Gartner预测,人工智能需求激增正推动全球数据中心市场增长,对全球电力供需模式产生双重影响。数据中心电力需求今年将增长16%,到2030年将翻倍。预计2025年全球数据中心电力消耗将达448太瓦时,2030年升至980太瓦时。AI优化服务器今年将占数据中心总功耗的21%,2030年将升至44%。美国和中国将占全球数据中心电力需求的三分之二以上。