人工智能 关键字列表
世界上最大的芯片创下 AI 速度记录,超越 NVIDIA

世界上最大的芯片创下 AI 速度记录,超越 NVIDIA

Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。

B-score:利用响应历史检测大语言模型中的偏见

B-score:利用响应历史检测大语言模型中的偏见

这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。

强化微调赋能多模态大语言模型的推理能力:从清华来的新研究揭示AI进化新阶段

强化微调赋能多模态大语言模型的推理能力:从清华来的新研究揭示AI进化新阶段

这篇论文探讨了强化微调(RFT)如何增强多模态大语言模型(MLLMs)的推理能力。研究指出,作为一种后训练算法,RFT已在各种模态(视觉、音频、GUI等)、任务和领域中取得显著成功。论文详细分析了现有工作,总结了RFT在多模态推理中的五大成功:多样化模态应用、广泛的任务与领域支持、算法改进、丰富的评测基准和完善的工程框架。作者还提出五个未来研究方向:提升跨模态泛化能力、结合不同奖励范式、加强安全性研究、探索数据增强技术以及开发更优算法和应用场景。

解构大模型的推理轨迹:上海人工智能实验室揭示大语言模型推理背后的优化机制

解构大模型的推理轨迹:上海人工智能实验室揭示大语言模型推理背后的优化机制

上海人工智能实验室研究团队提出了"RaML"框架,首次从元学习视角解释大语言模型的推理机制。研究将推理轨迹解析为模型参数的"伪梯度下降"更新,揭示了不同训练方法的内在联系,并证明了更长推理轨迹和多样化训练能显著提升模型性能与泛化能力。这一理论框架不仅深化了对大模型工作原理的理解,还为推理效率优化和能力提升提供了实用指导。

突破极限:科学家通过层级搜索让大模型实现精细化科学假设发现

突破极限:科学家通过层级搜索让大模型实现精细化科学假设发现

近期,由南洋理工大学和上海人工智能实验室等机构组成的研究团队在arXiv上发布了一项重要研究成果。这项名为"MOOSE-Chem2"的研究提出了精细化科学假设发现的全新任务,并通过层级搜索方法探索了大语言模型在该任务中的极限能力。研究团队将这一挑战定义为组合优化问题,并设计了一种层级启发式搜索方法,使模型能够从粗略的研究方向逐步细化到可直接实施的精细假设。实验结果表明,该方法不仅显著优于基线方法,还能生成与专家假设高度一致的结果,为AI辅助科学发现开辟了新途径。

Omni-R1:浙大团队打造全模态推理新范式,让AI同时掌握视频、音频和精细像素理解能力

Omni-R1:浙大团队打造全模态推理新范式,让AI同时掌握视频、音频和精细像素理解能力

浙江大学研究团队提出的Omni-R1是一种创新型全模态AI框架,它采用"双系统"协作架构解决了长时间视频理解与精细像素处理之间的根本矛盾。全局推理系统处理低分辨率完整视频并选择关键帧,细节理解系统则对高分辨率关键帧进行精细分析。通过端到端强化学习方法训练,Omni-R1在指代音视频分割和推理视频物体分割等任务中显著超越了现有模型,同时还意外地减轻了多模态幻觉问题。这一研究为构建更全面的通用AI基础模型提供了新思路。

用"难题负样本"教大型视觉语言模型如何读懂几何图形——清华大学开发全新对比学习方法提升几何推理能力

用"难题负样本"教大型视觉语言模型如何读懂几何图形——清华大学开发全新对比学习方法提升几何推理能力

清华大学研究团队提出了一种名为"硬负样本对比学习"的创新方法,显著提升了大型多模态模型在几何理解与推理方面的能力。通过构建图像和文本两类负样本,以及开发MMCLIP训练策略,他们的MMGeoLM模型在四个几何基准测试中表现卓越,甚至以7B参数规模与GPT-4o相媲美。实验证明,仅4K个真实图像负样本的效果就超过了100K个文本负样本,为AI细粒度视觉理解开辟了新路径。

直觉力:无需外部奖励的大语言模型自主推理学习

直觉力:无需外部奖励的大语言模型自主推理学习

这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。

WINA:微软推出权重感知神经元激活技术,让大语言模型推理速度提升60%以上

WINA:微软推出权重感知神经元激活技术,让大语言模型推理速度提升60%以上

WINA是一种由微软等机构研究人员开发的训练无关稀疏激活框架,它通过同时考虑隐藏状态大小和权重矩阵的列式l2范数来加速大型语言模型推理。与仅基于隐藏状态选择神经元的现有方法不同,WINA能更精确识别影响模型输出的关键神经元,在理论上提供更紧的误差界限。实验证明,WINA在相同稀疏度下比最先进方法表现更优(提升最多2.94%),同时减少高达65%的计算量,为资源受限环境中部署大型语言模型提供了高效解决方案。

数学和代码推理力的关键数据特征是什么?上海交通大学团队用影响函数揭示跨领域学习的奥秘

数学和代码推理力的关键数据特征是什么?上海交通大学团队用影响函数揭示跨领域学习的奥秘

上海交通大学研究团队利用影响函数揭示了数据特征如何刺激大型语言模型的数学和代码推理能力。研究发现高难度数学问题能同时提升数学和代码推理,而低难度编程任务对代码推理最有效。基于此,他们提出了"任务难度翻转"策略,使模型在AIME24准确率翻倍至20%。细粒度分析还显示,探索性思维行为对推理有积极影响,而数学推理偏好逻辑连接词,代码推理则强调结构化语法。这些发现为优化AI训练数据提供了重要指导。

多模态通才:InfantAgent-Next如何让AI更智能地操作你的电脑

多模态通才:InfantAgent-Next如何让AI更智能地操作你的电脑

InfantAgent-Next是一款突破性的多模态通用型AI助手,能通过文本、图像、音频和视频与计算机进行交互。不同于现有方法,它采用高度模块化架构,将基于工具和纯视觉的代理技术融为一体,让不同模型能逐步协作解决分散任务。在OSWorld视觉测试中达到7.27%的准确率,超越Claude-Computer-Use;同时在代码处理基准SWE-Bench和通用任务平台GAIA上也表现出色。其开源设计不仅提供了丰富工具集,还优化了鼠标点击定位和文件编辑功能,为AI自动操作计算机开创了新范式。

覆盖原则:理解组合泛化能力的统一框架——KAIST研究团队揭示大语言模型的推理局限

覆盖原则:理解组合泛化能力的统一框架——KAIST研究团队揭示大语言模型的推理局限

KAIST等机构研究团队提出的"覆盖原则"框架揭示了大语言模型在组合泛化能力上的基本局限。研究表明,依赖模式匹配的模型只能泛化到那些可以通过替换功能等价片段到达的输入。实验证实,两步推理任务的训练数据需求与词表大小成二次方增长,且增加模型参数并不改善这种关系;路径歧义任务会导致模型形成上下文依赖的表示;思维链监督虽能提高效率但仍受覆盖限制。研究最终提出三类泛化机制的分类法,为理解组合推理和真正系统性泛化所需的创新提供了清晰路径。

干掉完美主义:多轮分解如何让大语言模型推理更高效

干掉完美主义:多轮分解如何让大语言模型推理更高效

这项研究提出了"多轮分解"(MinD)方法,将大型推理模型的冗长思维链重构为结构化的多轮对话形式,每轮包含一个思考单元和一个答案。通过监督微调和强化学习相结合的训练策略,MinD在MATH等基准测试上实现了高达70%的标记使用量和首个标记延迟(TTFT)降低,同时保持了竞争性能。研究表明,传统推理模型中存在大量冗余思考过程,而MinD通过"完成比完美更重要"的理念,使模型学会生成更简洁高效的推理过程。

交织式思考与应答:让大语言模型通过强化学习实现更快响应和更准确推理

交织式思考与应答:让大语言模型通过强化学习实现更快响应和更准确推理

这项研究提出了"交织式推理"方法,通过强化学习训练大语言模型在复杂推理过程中穿插输出中间答案。与传统的"先思考后回答"模式不同,这种方式让模型像人类一样边思考边给出阶段性结论,不仅将首词响应时间平均减少80%以上,还在某些任务上将准确率提升高达19.3%。研究表明,模型本身就具备交织推理的潜力,通过适当的奖励机制可以显著增强这一能力,并泛化到未见过的复杂推理任务中。

DoctorAgent-RL:广州国家实验室研发的多智能体协作式强化学习医疗对话系统,让AI医生问诊更像真人医生

DoctorAgent-RL:广州国家实验室研发的多智能体协作式强化学习医疗对话系统,让AI医生问诊更像真人医生

冯轶春、王嘉伟等研究人员开发了DoctorAgent-RL,一种基于强化学习的多智能体协作医疗对话系统,彻底改变了AI医疗咨询模式。与传统单轮问答系统不同,该系统通过医生智能体与患者智能体间的多轮互动,动态优化提问策略,实现主动信息收集。实验表明,DoctorAgent-RL在诊断准确率和临床推理能力上均优于现有模型,展示了在辅助临床咨询中的实际应用价值。

更智能的小模型推理:数据视角下的思维链蒸馏基准研究——北卡罗来纳大学

更智能的小模型推理:数据视角下的思维链蒸馏基准研究——北卡罗来纳大学

这篇研究介绍了DC-CoT,首个专门评估数据操作如何影响思维链(CoT)知识蒸馏的基准系统。北卡罗来纳大学教堂山分校等机构的研究者使用多种教师模型(如Gemini-Pro、Claude-3.5)和学生架构(3B-7B参数),系统评估了数据增强、选择和混合对学生模型在多个推理任务上的表现影响。研究发现数据增强(尤其是逆向思维)最为有效,不同任务需要不同的最优策略组合,且存在"小模型学习能力差距"—较小学生模型可能从匹配其容量的较小教师中学习更有效。

让AI判断推理中的错误更精准:PathFinder-PRM如何通过分步解析优化大语言模型的数学推理过程

让AI判断推理中的错误更精准:PathFinder-PRM如何通过分步解析优化大语言模型的数学推理过程

这项研究提出了PathFinder-PRM,一种创新的层次化过程奖励模型,通过先分类数学和一致性错误,再估算步骤奖励分数,从而提升大语言模型的数学推理能力。研究团队构建了40万样本的数据集,使用细粒度错误标签训练模型,在多个基准测试上超越了现有最佳模型,并以更高的数据效率实现了更好的端到端数学问题解决能力。这种方法像经验丰富的数学老师一样,不仅指出错误所在,还能提供更精确的改进指导。

从直觉式编码到智能体编码:Cornell大学研究团队揭示AI辅助软件开发的两种范式

从直觉式编码到智能体编码:Cornell大学研究团队揭示AI辅助软件开发的两种范式

这篇论文比较了AI辅助软件开发中的两种新兴范式:"直觉式编码"(Vibe Coding)和"智能体编码"(Agentic Coding)。Cornell大学研究团队的综述揭示了两种方法的根本区别:直觉式编码强调开发者与AI的对话式交互和创意探索,而智能体编码实现了自主软件开发,能独立执行复杂任务。研究探讨了这两种范式的概念基础、技术架构、应用场景和未来发展路线图,指出它们并非对立,而是可以在软件开发生命周期的不同阶段互补,形成统一的人机协作模式。

价值引导搜索:提升推理模型思维链的高效指南——康奈尔大学研究团队的突破性成果

价值引导搜索:提升推理模型思维链的高效指南——康奈尔大学研究团队的突破性成果

康奈尔大学研究团队提出了"价值引导搜索"方法,通过训练标记级价值模型来优化大型语言模型的推理过程。他们收集了250万个数学推理轨迹,训练了15亿参数的评估模型,实现了基于块的高效搜索。这种方法不需要预定义"步骤"概念,也无需昂贵的每步标注。在四个数学竞赛基准测试中,该方法使DeepSeek-1.5B模型达到了45.7%的平均准确率,与更大模型相当,同时显著减少了计算资源需求。研究团队开源了数据集、模型和代码,为高效人工智能推理提供了新范式。

s3搜索智能体:使用强化学习训练高效搜索,让你的Large Language Models检索能力大增

s3搜索智能体:使用强化学习训练高效搜索,让你的Large Language Models检索能力大增

伊利诺伊大学研究团队开发的s3框架只需2,400个训练样本,就能超越需要17万个样本的现有方法,大幅提升语言模型的搜索质量。通过将搜索与生成解耦,s3使用"超越朴素RAG的增益"奖励,专注训练搜索智能体而保持生成模型不变。在通用和医学问答任务中,s3均取得最佳性能,同时实现33倍训练速度加快,适用于各类冻结或专有模型,为RAG系统开辟高效新路径。