上海人工智能实验室联合哈尔滨工业大学开发了Graph Counselor,一种让AI智能体像专业团队协作的图谱推理新方法。通过规划、思考、执行三个智能体的分工合作,加上自我反思机制,该方法在图谱问答任务上比现有方法提升24.2%,能显著减少AI的"胡说八道"现象,为构建更可靠的AI系统提供了新思路。
伊利诺伊大学香槟分校研究团队开发了Router-R1,一个能让多个AI模型像团队一样协作的智能调度系统。该系统通过强化学习,学会在"思考"和"调用专家"之间灵活切换,能根据任务复杂度动态协调不同AI模型,同时平衡性能与成本。在七个问答数据集的测试中,Router-R1显著超越现有方法,平均准确率提升约20%,并展现出对未见过模型的强泛化能力。
亚马逊确认其升级版数字助手Alexa+用户数已超过100万。该服务由生成式AI驱动,目前仍处于邀请测试阶段,尚未公开发布。Alexa+提供更自然的对话交互、智能家居集成和AI扩展功能,早期访问期间免费使用,正式发布后Prime会员免费,非Prime用户每月收费19.99美元。用户反馈不一,但亚马逊表示已推出近90%的预告功能。
Salesforce发布Agentforce 3,这是其企业级人工智能产品的重大升级,新增AI代理观察和控制功能。该平台帮助企业构建、定制和部署生成式AI代理,自主辅助员工工作。新版本推出命令中心,提供完整的可观察性和模型上下文协议支持,实现与其他代理和服务的即插即用兼容性,并新增100多个预构建行业操作,加速标准化AI代理部署。
泄露代码显示xAI正在为Grok开发高级文件编辑器,支持电子表格功能。该功能允许用户在编辑文件的同时与Grok对话并获得AI助手支持。这标志着xAI正努力与OpenAI、谷歌和微软竞争,将AI副驾驶嵌入生产力工具中。此举可能是马斯克将X打造成集文档、聊天、支付和社交媒体于一体的"超级应用"计划的重要一步。
孟加拉国联合国际大学研究团队开发了VisText-Mosquito多模态数据集,这是首个集成视觉检测和自然语言推理的蚊子繁殖点识别系统。该系统包含1970张标注图像,能够识别五类繁殖容器并进行水面分割,同时提供人类可理解的判断解释。YOLOv9s等模型达到92.9%检测精度,为全球蚊媒疾病防控提供了AI技术支撑。
这项跨国研究首次系统评估了大语言模型生成编程测试用例的能力。研究团队构建了包含500个竞赛问题和10万错误代码的TestCase-Eval基准,设计了故障覆盖和故障暴露两个核心任务。测试19个主流模型后发现,最佳模型仅达43.8%成功率,远低于人类专家的93.3%,揭示了AI在程序调试辅助方面的巨大改进空间。
MBZUAI研究团队开发的GG技术突破了跨架构程序翻译难题,通过AI将x86程序准确翻译为ARM版本,准确率达99.39%。与苹果Rosetta 2相比,性能快73%、省电47%、内存占用少141%。该技术采用大型语言模型结合严格测试验证,为硬件架构迁移提供了高效解决方案,将推动ARM处理器在数据中心的快速普及。
微软亚洲研究院团队通过创新的评估方法发现,具有可验证奖励的强化学习(RLVR)能够真正提升AI的推理能力,而非仅仅改善答案准确率。研究提出了CoT-Pass@K评估标准,要求AI不仅给出正确答案还需保证推理过程正确,实验证明RLVR训练显著提升了AI的逻辑推理质量,为开发更可靠的AI推理系统奠定重要基础。
NVIDIA团队开发出革命性AI图像生成技术AYF,成功将传统需要几十步的复杂图像生成过程压缩至仅4步,同时保持高质量输出。该技术通过创新的流映射方法和双重训练目标,解决了现有快速生成方法质量差或多步性能退化的问题,在ImageNet等标准测试中表现优异,为AI图像生成的实用化应用奠定了重要基础。
中科大团队发布CRITICTOOL基准,首次系统评估大型语言模型工具调用自我批判能力。研究发现当前AI模型包括GPT-4o在内,遇到工具使用错误时恢复能力有限,最高仅达70%水平。该基准通过内部错误和外部环境错误两大类五种模式,结合数据进化策略,为AI工具使用可靠性评估提供重要参考。
中文大学等机构联合研究提出"问题自由微调"方法,解决AI推理模型在简单问题上过度思考的问题。该方法训练时移除问题输入,仅学习推理过程,使AI能自适应选择短推理或长推理模式。实验显示该方法在保持性能的同时将回答长度减少50%以上,在噪声、跨域和低资源场景中表现优异。
这项由18所顶尖高校联合开展的研究推出了革命性的AI代理评估平台xbench,彻底改变了传统以技术能力为中心的评测方式,转而采用真实职业场景的实战检验。研究团队在招聘和营销两个专业领域构建了完整的评估体系,让AI代理像实习生一样直接承担真实工作任务,用实际成果证明商业价值。通过对九个主流AI代理的全面测试,发现不同模型在专业任务中的表现差异显著,技术评测高分未必转化为实用价值。
随着AI发展推动数据中心能耗激增,预计2030年将增长160%,微软等科技巨头甚至重启核电站以满足算力需求。然而,真正的解决方案可能不是更大的基础设施,而是更智能的芯片。以色列初创公司Proteantecs通过芯片遥测技术,已帮助大型数据中心降低14%的AI服务器功耗。Arm公司专注于能效架构设计,而Cadence则利用AI设计更智能的硅芯片。这些技术代表了AI基础设施的新层次,通过智能设计和实时监控回收每一瓦特能耗。
谷歌为Chromebook推出多项AI新功能,包括图像生成、文本摘要等内置系统功能。配备现代CPU和8GB以上内存的Chromebook Plus设备将获得Lens视觉搜索、Quick Insert图像生成、Help Me Read文档摘要等功能。联想Chromebook Plus 14搭载MediaTek Kompanio Ultra处理器,支持50 TOPS AI算力,实现智能标签页分组和本地AI照片编辑等设备端AI功能,售价749美元。
在2025年格勒诺布尔Leti创新日大会上,能耗问题成为焦点。随着AI驱动计算需求激增,数据中心规模和能耗急剧膨胀,部分数据中心功耗将达500兆瓦。CEA-Leti启动Resolve计划,目标到2032年实现能效提升1000倍。大会展示了3D集成、光子互连等节能技术,以及无PFAS芯片制造方法。业界呼吁通过先进封装、宽禁带功率器件等实用技术,平衡AI发展与可持续性需求。
联想集团推出专为人工智能工作负载优化的数据中心系统产品组合。主打产品ThinkSystem SR680a V4计算设备集成近二十个处理器,推理工作负载运行速度比上一代硬件快11倍。该系统配备8块英伟达Blackwell B200显卡、6个英特尔至强6处理器,以及8个英伟达SuperNIC和BlueField-3 DPU。同时发布基于SR675服务器的两个系统和四个混合AI优势产品包,涵盖制造、酒店、安全和零售等应用场景。
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。