这篇论文比较了AI辅助软件开发中的两种新兴范式:"直觉式编码"(Vibe Coding)和"智能体编码"(Agentic Coding)。Cornell大学研究团队的综述揭示了两种方法的根本区别:直觉式编码强调开发者与AI的对话式交互和创意探索,而智能体编码实现了自主软件开发,能独立执行复杂任务。研究探讨了这两种范式的概念基础、技术架构、应用场景和未来发展路线图,指出它们并非对立,而是可以在软件开发生命周期的不同阶段互补,形成统一的人机协作模式。
康奈尔大学研究团队提出了"价值引导搜索"方法,通过训练标记级价值模型来优化大型语言模型的推理过程。他们收集了250万个数学推理轨迹,训练了15亿参数的评估模型,实现了基于块的高效搜索。这种方法不需要预定义"步骤"概念,也无需昂贵的每步标注。在四个数学竞赛基准测试中,该方法使DeepSeek-1.5B模型达到了45.7%的平均准确率,与更大模型相当,同时显著减少了计算资源需求。研究团队开源了数据集、模型和代码,为高效人工智能推理提供了新范式。
伊利诺伊大学研究团队开发的s3框架只需2,400个训练样本,就能超越需要17万个样本的现有方法,大幅提升语言模型的搜索质量。通过将搜索与生成解耦,s3使用"超越朴素RAG的增益"奖励,专注训练搜索智能体而保持生成模型不变。在通用和医学问答任务中,s3均取得最佳性能,同时实现33倍训练速度加快,适用于各类冻结或专有模型,为RAG系统开辟高效新路径。
香港大学等机构研究者开发的PHYX基准测试评估了AI模型的物理推理能力,结果显示即使最先进的GPT-4o等多模态模型在此类任务上的准确率仅为32.5%-45.8%,比人类专家低29%以上。PHYX包含3000个跨六大物理领域的多模态问题,要求模型整合领域知识、符号推理和现实约束理解。分析发现模型存在视觉推理错误、过度依赖文本描述和数学公式等关键缺陷,为未来开发物理感知AI系统提供了重要指导。
这项研究介绍了MOOSE-Chem3,一种通过模拟实验反馈进行化学假设排序的创新方法。传统的预实验排序仅依靠大型语言模型的内部推理,而该研究提出的实验引导式排序方法则利用先前实验结果来优化决策。研究团队基于三个领域假设构建了高保真模拟器,并验证了其对124个真实化学假设的预测准确性。他们开发的CSX-Rank方法通过功能聚类和反馈分析,将找到最优假设所需的实验次数减少了一半以上,即使在嘈杂条件下也表现出色,为化学研究提供了更高效的探索路径。
这项研究介绍了Time-R1,一个3B参数的语言模型,通过创新的三阶段强化学习训练方法,在时间推理能力上超越了参数量大200倍的模型。该框架依次建立了基础时间理解、未来事件预测和创意场景生成能力,采用精心设计的动态奖励系统指导学习过程。实验证明,小型高效模型通过专门训练可以在时间推理任务上实现卓越表现,为可扩展的时间感知AI提供了实用路径。研究团队还发布了Time-Bench数据集和模型检查点,促进该领域的进一步发展。
本文介绍了 Starfish Storage 开发的非结构化数据目录(UDC),它利用跨厂商文件索引与灵活元数据管理,实现大规模存储管理及 AI 数据应用,帮助企业识别文件价值、优化存储策略。
Salesforce将以约80亿美元收购云数据管理公司Informatica,通过整合数据目录、数据集成、治理及质量管理等领先能力,构建统一的平台,支持agentic AI大规模、安全应用,助推企业数字化转型。
Bit Cloud 推出 Hope AI,这是一款新型 AI 代理,能通过自然语言提示构建完整、模块化、长期可扩展的应用。它打破常见的“黑箱”现象,实现代码透明、易于维护,并支持 GitHub、Azure DevOps 等主流工具,现提供免费体验。
新研究通过 DeepTumorVQA 基准测试表明,尽管 AI 在基本识别和测量任务上有一定表现,但在复杂医学推理上仍远落后于临床要求,难以取代医生的诊断判断。
NOVER是一种创新的无验证器强化学习框架,解决了传统激励训练依赖外部验证器的限制。由伦敦国王学院研究团队开发,它通过计算"推理困惑度"作为奖励代理,使语言模型能在任何文本任务中自主发展推理能力。实验表明,NOVER在一般推理、创意写作、社会智能和多语言能力等多种任务上均优于基线方法,甚至使3B模型接近从671B模型蒸馏版本的性能。此外,其灵活性还支持"反向激励训练"等创新应用,为语言模型训练开辟了新方向。
清华大学研究团队开发的"思维增强型策略优化"(TAPO)通过将外部高级思维模式整合到强化学习中,显著提升了大语言模型的推理能力。这种方法从仅500个样本中抽象出思维模板,在AIME、AMC和Minerva Math等基准测试中分别比传统方法提高了99%、41%和17%的性能,同时增强了模型的可解释性、稳定性和泛化能力,为AI推理研究开辟了新方向。
Trinity-RFT是阿里巴巴团队开发的开源框架,专为大语言模型的强化微调设计。它采用三位一体结构,包含RFT核心(探索者、训练者和缓冲区)、智能体-环境交互和数据流水线三大核心组件。框架支持同步/异步、在线/离线和策略内/外等多种训练模式,能优雅处理复杂的现实场景如延迟反馈和环境失败。Trinity-RFT还提供了丰富的数据处理功能和人机协作界面,并通过Trinity-Studio实现无代码操作。
阿里巴巴Qwen-Doc团队推出的QwenLong-L1框架通过强化学习解决了大型语言模型长文本推理的关键挑战。该框架采用渐进式上下文扩展策略,包含热身监督微调、课程引导分阶段强化学习和难度感知回顾采样三大核心组件。实验表明,QwenLong-L1-32B在七项长文本文档问答基准测试上平均提升5.1个百分点,超越OpenAI-o3-mini等旗舰模型,达到与Claude-3.7-Sonnet-Thinking相当的性能水平,为发展具备强大上下文理解和推理能力的实用长文本语言模型开辟了新路径。
韩国科学技术院(KAIST)的研究团队发现了大型语言模型中一个令人担忧的现象:"推理刚性"。这种现象表现为即使是最先进的AI模型,如GPT-4o或Qwen3,也会在解决问题时固执地坚持熟悉的推理模式,甚至会"修改"用户明确给出的条件。研究人员创建了ReasoningTrap诊断数据集,揭示这种行为可分为三类:解释过载、输入不信任和部分指令关注。令人惊讶的是,专门为复杂推理训练的模型比基础模型表现出更强的"固执"倾向,这提醒我们在追求AI推理能力的同时,不应忽视其遵循指令的灵活性。
比尔肯特大学研究团队提出RoPECraft,一种无需训练的视频动作迁移方法,通过巧妙操作扩散变换器中的旋转位置编码实现。该方法首先从参考视频提取光流信息,用于扭曲RoPE张量;再通过流匹配优化和相位约束正则化,确保生成视频精确跟随参考动作,同时保持视觉质量。与需要大量计算资源的现有方法相比,RoPECraft不需要模型再训练,大幅降低了计算成本,同时在动作保真度和视频质量上超越了最新技术,为AI视频创作提供了高效可行的动作控制解决方案。
Think-RM是一项创新研究,通过使奖励模型具备"长程思考"能力来提升AI系统对人类偏好的理解。传统的奖励模型要么仅提供分数(BT RM),要么依赖浅层思考(GenRM),而Think-RM则模拟人类深度分析问题的过程,支持自我反思、假设推理和发散思维。实验表明,这种方法在复杂推理任务上显著优于现有方法,在RM-Bench上提升8%。结合创新的配对式RLHF流程,Think-RM不仅拓展了奖励模型设计空间,还为AI系统与人类期望的更精准对齐提供了新范式。
台湾国立大学研究团队开发了SAKURA,首个专门评估大型音频语言模型多跳推理能力的基准测试。研究发现,即使最先进的模型也面临两大挑战:一是在识别某些音频属性(如情绪)时准确率不高;二是即使能正确识别音频信息,也难以基于这些信息进行多步推理。对比实验显示,当同样的信息以文本形式提供时,模型推理能力显著提升,表明当前模型未能有效整合音频表征进入推理过程,这为未来开发真正能"听懂并思考"的AI系统提供了重要方向。
这项由宾夕法尼亚州立大学研究团队开发的FOVER方法解决了AI推理验证器训练中的两大难题:数据标注成本高和应用范围有限。研究者利用形式验证工具(如Z3和Isabelle)自动检查AI在形式逻辑和定理证明任务中的每一步推理是否正确,创建了高质量的训练数据集。令人惊喜的是,经过这种训练的验证器不仅无需人工标注数据,还能泛化到各类推理任务,在12个不同基准测试中表现优异,甚至在某些任务上超越了使用人工标注训练的验证器。这为提高AI推理能力提供了一条高效、通用的新途径。
这篇研究介绍了Meta团队开发的Multi-SpatialMLLM,一种能够理解多帧图像空间关系的多模态大语言模型。研究者创建了首个大规模多帧空间理解数据集MultiSPA,包含超过2700万个样本,并在此基础上训练模型掌握深度感知、视觉对应和动态感知能力。实验表明,该模型显著超越了现有系统,在空间理解任务上平均提升36%,并展示出多任务协同效应和能力涌现现象,为机器人学习等实际应用提供了新的可能性。