法国 Mistral AI 发布了一套综合代理开发平台,通过集成代码执行、网页搜索和文档处理等功能,实现跨对话上下文的复杂业务流程自动化。
金融服务领域正借助人工智能实现变革,但对抗性 AI 攻击给金融监管和企业带来严峻挑战,要求机构加强风险认知、完善培训与防护措施,确保系统安全。
这项研究提出了STRUCTEVAL,一个全面评估大语言模型生成结构化输出能力的基准测试。研究涵盖18种格式和44种任务类型,分为不可渲染(JSON、YAML)和可渲染(HTML、React)两大类。评测揭示即使最先进模型如GPT-4o也仅达到76.02%平均分,开源模型落后约10个百分点。研究发现,生成任务比转换任务更具挑战性,可视内容生成比纯文本结构更难掌握。某些任务(如Text→Markdown)已被很好解决,而另一些(如Text→Mermaid)仍然困难。这一基准为未来语言模型在处理结构化数据方面的进步提供了重要指导。
这篇研究论文介绍了EquivPruner,一种通过识别和剪除语义等价行动来提高大型语言模型(LLM)推理搜索效率与质量的创新方法。中国科学技术大学与科大讯飞研究院合作开发的这一技术,在GSM8K数学测试上将Qwen2.5-Math-7B-Instruct模型的token消耗减少了48.1%,同时还略微提高了准确率。研究团队还创建了首个数学语句等价性数据集MathEquiv,为等价性检测研究奠定基础。实验表明,该方法在多种模型和数据集上均显示出显著效益,为LLM推理效率优化提供了新方向。
MOLE是一个由KAUST研究团队开发的创新框架,利用大语言模型从科学论文中自动提取数据集元数据。与传统方法相比,MOLE能提取30多种不同元数据属性,支持多语言数据集,并提供严格的验证机制确保输出质量。研究测试了包括Gemini、GPT-4o等七种大模型,结果显示Gemini 2.5 Pro整体表现最佳。MOLE通过自动化元数据提取,使研究人员能更容易发现和使用适合的数据集,促进研究效率和科学开放性。
自适应推理模型(ARM)解决了大型推理模型的"过度思考"问题,能够根据任务难度自动选择合适的推理格式。研究团队通过创新的Ada-GRPO算法训练,使ARM在保持性能的同时平均减少30%的计算量,并提供自适应、指令引导和共识引导三种工作模式。这一突破使AI更接近人类思维方式,在简单问题上直接作答,复杂问题上才详细推理,极大提升了计算效率。
Enigmata是一项突破性研究,通过合成可验证的拼图训练大语言模型的逻辑推理能力。该研究创建了包含36种任务、7大类推理能力的完整训练系统,每项任务都配备了可控难度生成器和自动验证器。基于此训练的Qwen2.5-32B-Enigmata模型在拼图推理基准上超越了o3-mini-high和o1等顶尖模型。更令人惊喜的是,当应用于更大规模模型时,这些拼图数据不仅提升了模型解决拼图的能力,还意外增强了其数学和STEM推理能力,展示了纯逻辑训练带来的广泛泛化优势。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。
Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。
这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。
这篇论文探讨了强化微调(RFT)如何增强多模态大语言模型(MLLMs)的推理能力。研究指出,作为一种后训练算法,RFT已在各种模态(视觉、音频、GUI等)、任务和领域中取得显著成功。论文详细分析了现有工作,总结了RFT在多模态推理中的五大成功:多样化模态应用、广泛的任务与领域支持、算法改进、丰富的评测基准和完善的工程框架。作者还提出五个未来研究方向:提升跨模态泛化能力、结合不同奖励范式、加强安全性研究、探索数据增强技术以及开发更优算法和应用场景。
上海人工智能实验室研究团队提出了"RaML"框架,首次从元学习视角解释大语言模型的推理机制。研究将推理轨迹解析为模型参数的"伪梯度下降"更新,揭示了不同训练方法的内在联系,并证明了更长推理轨迹和多样化训练能显著提升模型性能与泛化能力。这一理论框架不仅深化了对大模型工作原理的理解,还为推理效率优化和能力提升提供了实用指导。
近期,由南洋理工大学和上海人工智能实验室等机构组成的研究团队在arXiv上发布了一项重要研究成果。这项名为"MOOSE-Chem2"的研究提出了精细化科学假设发现的全新任务,并通过层级搜索方法探索了大语言模型在该任务中的极限能力。研究团队将这一挑战定义为组合优化问题,并设计了一种层级启发式搜索方法,使模型能够从粗略的研究方向逐步细化到可直接实施的精细假设。实验结果表明,该方法不仅显著优于基线方法,还能生成与专家假设高度一致的结果,为AI辅助科学发现开辟了新途径。
浙江大学研究团队提出的Omni-R1是一种创新型全模态AI框架,它采用"双系统"协作架构解决了长时间视频理解与精细像素处理之间的根本矛盾。全局推理系统处理低分辨率完整视频并选择关键帧,细节理解系统则对高分辨率关键帧进行精细分析。通过端到端强化学习方法训练,Omni-R1在指代音视频分割和推理视频物体分割等任务中显著超越了现有模型,同时还意外地减轻了多模态幻觉问题。这一研究为构建更全面的通用AI基础模型提供了新思路。
清华大学研究团队提出了一种名为"硬负样本对比学习"的创新方法,显著提升了大型多模态模型在几何理解与推理方面的能力。通过构建图像和文本两类负样本,以及开发MMCLIP训练策略,他们的MMGeoLM模型在四个几何基准测试中表现卓越,甚至以7B参数规模与GPT-4o相媲美。实验证明,仅4K个真实图像负样本的效果就超过了100K个文本负样本,为AI细粒度视觉理解开辟了新路径。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。
WINA是一种由微软等机构研究人员开发的训练无关稀疏激活框架,它通过同时考虑隐藏状态大小和权重矩阵的列式l2范数来加速大型语言模型推理。与仅基于隐藏状态选择神经元的现有方法不同,WINA能更精确识别影响模型输出的关键神经元,在理论上提供更紧的误差界限。实验证明,WINA在相同稀疏度下比最先进方法表现更优(提升最多2.94%),同时减少高达65%的计算量,为资源受限环境中部署大型语言模型提供了高效解决方案。
上海交通大学研究团队利用影响函数揭示了数据特征如何刺激大型语言模型的数学和代码推理能力。研究发现高难度数学问题能同时提升数学和代码推理,而低难度编程任务对代码推理最有效。基于此,他们提出了"任务难度翻转"策略,使模型在AIME24准确率翻倍至20%。细粒度分析还显示,探索性思维行为对推理有积极影响,而数学推理偏好逻辑连接词,代码推理则强调结构化语法。这些发现为优化AI训练数据提供了重要指导。
InfantAgent-Next是一款突破性的多模态通用型AI助手,能通过文本、图像、音频和视频与计算机进行交互。不同于现有方法,它采用高度模块化架构,将基于工具和纯视觉的代理技术融为一体,让不同模型能逐步协作解决分散任务。在OSWorld视觉测试中达到7.27%的准确率,超越Claude-Computer-Use;同时在代码处理基准SWE-Bench和通用任务平台GAIA上也表现出色。其开源设计不仅提供了丰富工具集,还优化了鼠标点击定位和文件编辑功能,为AI自动操作计算机开创了新范式。
KAIST等机构研究团队提出的"覆盖原则"框架揭示了大语言模型在组合泛化能力上的基本局限。研究表明,依赖模式匹配的模型只能泛化到那些可以通过替换功能等价片段到达的输入。实验证实,两步推理任务的训练数据需求与词表大小成二次方增长,且增加模型参数并不改善这种关系;路径歧义任务会导致模型形成上下文依赖的表示;思维链监督虽能提高效率但仍受覆盖限制。研究最终提出三类泛化机制的分类法,为理解组合推理和真正系统性泛化所需的创新提供了清晰路径。