研究团队开发了IR3D-Bench基准测试,要求AI根据单张图片重建完整3D场景,以此检验AI是否真正理解所见世界。测试涵盖20多个顶尖AI模型,结果显示虽然AI在物体识别上表现出色,但在空间关系理解和尺寸估计方面存在明显不足。研究为评估AI视觉理解能力提供了新标准。
浙江大学研究团队开发了FreeLong++技术,能让短视频AI模型无需重训练就生成4-8倍时长的高质量长视频。该技术通过多尺度注意力机制和频谱融合解决了长视频生成中的画面模糊和不连贯问题,在多项评估中显著优于现有方法。
智谱AI和清华大学联合发布GLM-4.1V-Thinking视觉语言模型,通过创新的推理导向训练框架,让AI学会像人类一样深度思考后再回答。该模型在多个基准测试中超越了规模更大的竞争对手,并首次在开源社区提供了完整的多模态推理解决方案,为AI技术的实际应用开辟了新路径。
这项由中国人民大学与斯坦福大学、微软公司合作的研究,开发出名为MoCa的革命性多模态AI技术。该技术通过双向注意力机制和联合重建训练,让AI能够像人类一样同时理解图片和文字,并建立深层语义关联。在大规模测试中,MoCa显著超越现有技术,30亿参数模型就能匹敌传统70亿参数模型,展现出强大的实用潜力和应用前景。
这项由耶鲁大学联合纽约大学和艾伦人工智能研究所完成的研究,首次构建了专门针对科学文献任务的AI评估平台SciArena。通过收集超过13000张来自102位真实科学家的投票,研究揭示了当前AI助手在科学文献理解方面的真实水平,同时指出了AI自动评估系统的显著局限性,为科学研究领域的AI应用提供了重要参考。
苹果公司联合香港大学开发了DiffuCoder,这是首个采用扩散模型的AI编程助手,能够像人类程序员一样进行全局思考和并行生成代码。该模型通过创新的"耦合GRPO"强化学习算法,在EvalPlus等权威测试中性能提升4.4%,并实现了更快的代码生成速度。这项研究为AI编程助手从线性生成向智能化并行思考的转变奠定了基础。
阿里巴巴通义实验室的研究团队开发了HumanOmniV2,这是一个能够真正"读懂"人类复杂意图和情感的AI系统。该系统通过改进强化学习方法,让AI在回答问题前必须先全面理解多模态背景信息,解决了现有AI模型忽略重要线索和缺乏全局理解的问题,在多项测试中表现优异。
MIT等顶尖院校联合发布的Radial Attention技术,通过模拟自然界能量衰减现象,创新性地解决了AI视频生成中的计算效率问题。该技术将生成速度提升1.9-3.7倍,训练成本降低4.4倍,使AI能够生成4倍长度的高质量视频,为视频AI走向实用化奠定重要基础。
斯坦福等高校联合研究团队首次开发出能抵御"视觉伪装攻击"的AI图像水印技术PECCAVI。该技术通过识别图片中的"非融化点"并采用多频道频域水印,成功抵御了能完全去除传统水印的最新攻击方式,检测率达92%。研究解决了AI生成图像真实性验证的关键难题,为防范AI造假内容传播提供了重要技术支撑。
微软研究院最新发布的DELT方法革命性地改变了AI训练数据的组织方式,通过给训练样本评分、筛选和重新排序,让AI模型能够循序渐进地学习。这种方法无需增加模型大小或数据量,就能将性能提升1.65%,实现训练效率翻倍,为AI训练带来几乎"免费"的性能提升。
卡内基梅隆大学团队通过评估20多个开源推理模型发现,多数在数学推理上表现优异的AI模型无法将优势转移到其他领域。研究揭示训练方法是关键因素:强化学习能在提升数学能力的同时保持通用性,而监督学习虽然数学成绩突出但会造成其他能力退化。通过内部表征分析发现,强化学习对模型改动更精准,避免了"灾难性遗忘"现象。
2025施耐德电气智算峰会上,全新EcoStruxure(TM) Energy Operation电力综合运营系统正式亮相,定位场站级智慧能源管理中枢,集技术领先性与本土适配性于一体。
Atlassian、Intuit和AWS三大企业巨头正在为智能代理时代做准备,重新思考软件构建方式。当前企业API为人类使用而设计,未来API将成为多模型原生接口。Intuit在QuickBooks中应用自动发票生成,使企业平均提前5天收款;AWS通过AI辅助迁移服务显著提升效率;Atlassian推出内部员工入职代理和客户代理,节省大量时间成本。专家强调需要建立强大的数据架构和信任机制。
MIT研究发现,使用生成式AI完成任务时,大脑运作方式与单纯依靠自身思考存在显著差异。研究显示,使用ChatGPT等工具的用户记忆力更差,神经连接活动减少,对所写内容的回忆能力明显下降。虽然AI工具能提高效率,但可能导致用户缺乏对知识的深度理解和掌控感。研究强调需要更多科学数据来了解AI使用对人类认知的长期影响。
Earthgrid公司展示了突破性的等离子体挖掘系统,使用双2500千瓦等离子炬在花岗岩中开凿隧道。该技术替代传统柴油设备和爆破方式,显著降低环境影响。这项绿色挖掘工艺可高效铺设地下电力线和光纤网络,减少野火风险,为AI数据中心等高耗能基础设施提供可持续的能源解决方案,推动绿色计算发展。
OpenAI澄清虽在测试谷歌TPU芯片,但暂无大规模部署计划。该公司正摆脱对微软基础设施的依赖,寻求包括甲骨文、CoreWeave等多家算力供应商合作。OpenAI一直在硬件栈多元化方面努力,从英伟达DGX系统起步,现已使用微软Maia加速器、AMD Instinct MI300系列等多种硬件。公司还在开发自研AI芯片。分析认为,OpenAI可能因软件栈主要针对GPU优化,适配TPU架构需要额外时间和资源投入。
Cerabyte公司表示,到2030年将推出容量超过100PB的归档存储机架,带宽达2GBps,首字节访问时间少于10秒。该技术基于飞秒激光在玻璃基板上蚀刻陶瓷记录层,玻璃片存储在类似磁带的盒式存储器中。与磁带相比,该技术寿命超过100年,成本仅1美元/TB,数据传输速度1-2GBps。公司已获得Pure Storage等投资,正在开发试点生产系统。
这项研究首次系统评估了AI代码智能体在科学研究扩展方面的能力。研究团队设计了包含12个真实研究任务的REXBENCH基准,测试了九个先进AI智能体的表现。结果显示,即使最优秀的智能体成功率也仅为25%,远低于实用化要求,揭示了当前AI在处理复杂科学推理任务时的显著局限性。
俄罗斯莫斯科国立大学研究团队开发出MEMFOF光流估计新方法,在保持顶尖精度的同时将1080p视频分析的GPU内存消耗从8GB降至2GB,实现约4倍内存节省。该方法通过三帧策略、相关性体积优化和高分辨率训练在多个国际基准测试中取得第一名成绩,为高清视频分析技术的普及奠定基础。