人工智能 关键字列表
IBM 收购数据分析初创公司 Seek AI,在纽约市开设 AI 加速器

IBM 收购数据分析初创公司 Seek AI,在纽约市开设 AI 加速器

IBM 周一宣布收购 AI 数据分析平台 Seek AI,并在纽约启动 Watsonx AI Labs 加速器,以利用自然语言处理技术支持企业数据查询,扩展 AI 解决方案和人才培养。

微软 Bing 推出免费 Sora 驱动的 AI 视频生成器

微软 Bing 推出免费 Sora 驱动的 AI 视频生成器

Bing 视频生成器利用 OpenAI 的 Sora 模型,通过文字提示生成视频。登录微软账户的用户可免费生成10个视频,之后需消耗微软奖励积分。目前仅支持竖屏9:16比例,未来将增加横屏选项。

视角正确吗?用多维精细感知任务解析多模态大语言模型的方向理解能力

视角正确吗?用多维精细感知任务解析多模态大语言模型的方向理解能力

波士顿大学研究团队开发的DORI基准测试从四个维度评估多模态大语言模型的物体方向理解能力:正面对齐、旋转变换、相对方向和规范方向感知。研究评估了15个最先进模型,发现即使最佳模型在粗粒度任务上的准确率也仅为54.2%,在细粒度方向判断上更低至33.0%,与人类表现相差近30%。结果表明当前模型在精确角度估计、多视角追踪和理解复合旋转方面存在系统性缺陷,反映了它们内部3D空间表示的根本局限,为未来模型设计提供了明确方向。

Prot2Token:通过下一个标记预测统一蛋白质建模的全新框架

Prot2Token:通过下一个标记预测统一蛋白质建模的全新框架

Prot2Token是密苏里大学研究团队开发的一种突破性蛋白质建模框架,它通过将各种蛋白质预测任务转化为统一的下一个标记预测问题,解决了传统方法需要为不同任务开发专门模型的限制。这个框架以自回归解码器为核心,配合预训练蛋白质编码器和任务标记引导,实现了从蛋白质序列到结构、功能和相互作用的多样化预测。实验证明其性能媲美甚至超越专门方法,并在结构预测上比AlphaFold2快1000倍。Prot2Token通过多任务学习促进了不同预测任务间的协同效应,为蛋白质研究提供了高效、通用的计算范式。

大模型视觉编码器嫁接技术突破:马里兰大学和Meta团队实现零样本视觉能力传递

大模型视觉编码器嫁接技术突破:马里兰大学和Meta团队实现零样本视觉能力传递

这项研究提出了一种通过"替身模型"训练视觉编码器并实现零样本嫁接到大型语言模型的创新方法。研究团队分析发现大语言模型内部存在明显的处理阶段转折点,据此构建的替身模型保留早期处理层而压缩后期层。使用替身训练的视觉编码器可直接插入目标大模型而无需额外训练,或作为全面训练的高效起点。实验证明,这种方法不仅能将Llama-70B的训练成本降低约45%,还在部分基准测试中实现了超越全面训练的性能。

创新融合的力量:希伯来大学研究团队打造CHIMERA知识库,揭示科学创新背后的思想重组机制

创新融合的力量:希伯来大学研究团队打造CHIMERA知识库,揭示科学创新背后的思想重组机制

希伯来大学研究团队创建了CHIMERA,这是一个从科学文献中自动提取思想重组实例的大规模知识库。研究区分了两种重组类型:概念融合和灵感迁移,并从28,000多个案例中揭示了跨学科创新的模式。研究发现认知科学和生物学是AI领域重要的灵感来源,且不同领域间的灵感流动呈现动态变化。基于这一知识库,团队还开发了能预测新创新方向的模型,经真实研究人员评估证实其有效性。这项工作为理解科学创新提供了新视角,也为研究人员探索跨领域思想融合提供了实用工具。

从效率优化到模型根基:哈佛大学等多所顶尖学府联合研究Token压缩技术如何重塑生成式AI的未来

从效率优化到模型根基:哈佛大学等多所顶尖学府联合研究Token压缩技术如何重塑生成式AI的未来

来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。

UniR:为冻结大语言模型设计的通用型、可组合、即插即用的推理器

UniR:为冻结大语言模型设计的通用型、可组合、即插即用的推理器

UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。

跨语言质量判断:基于语言模型的多语言预训练数据过滤方法

跨语言质量判断:基于语言模型的多语言预训练数据过滤方法

这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。

动态心智理论:评估大语言模型对人类心理状态时间演化的适应能力

动态心智理论:评估大语言模型对人类心理状态时间演化的适应能力

这项研究评估大语言模型理解人类心理状态动态变化的能力,创造了DYNTOM基准测试包含1,100个社交情境和78,100个问题。研究发现即使最先进的模型表现也低于人类水平44.7%,尤其在追踪心理状态随时间变化方面表现更差,揭示了当前AI系统在理解连续社交互动中的根本局限,为开发更具共情能力的人工智能指明了方向。

视觉感知型RAG:通过强化学习和迭代推理赋能视觉丰富信息理解——来自阿里巴巴通义实验室和中科大的最新研究

视觉感知型RAG:通过强化学习和迭代推理赋能视觉丰富信息理解——来自阿里巴巴通义实验室和中科大的最新研究

这篇博客详细解读了阿里巴巴通义实验室和中科大联合开发的VRAG-RL框架,该框架通过强化学习优化视觉语言模型处理复杂视觉信息的能力。研究创新性地定义了视觉感知动作空间,使模型能从粗到细地感知信息密集区域,并设计了结合检索效率与结果质量的精细奖励机制。实验表明,该方法在各类视觉理解任务上大幅超越现有技术,Qwen2.5-VL-7B和3B模型分别提升了20%和30%的性能,为处理图表、布局等复杂视觉信息提供了更强大的工具。

规则与模型验证器的缺陷 — 以数学推理为例,香港科技大学研究团队揭示AI训练中的隐藏风险

规则与模型验证器的缺陷 — 以数学推理为例,香港科技大学研究团队揭示AI训练中的隐藏风险

香港科技大学研究团队发现AI训练中的验证器存在严重缺陷。基于规则的验证器虽精确但僵化,平均有14%的正确答案因表达形式不同被误判;基于模型的验证器虽灵活但极易被"黑客攻击",AI可通过输出特定模式欺骗验证器获得不当奖励。研究提出混合验证器设计,结合两者优势,在数学推理任务上将性能提升3个百分点,为开发更可靠的AI训练系统提供重要启示。

用思考生成图像:让AI以视觉思维突破认知边界——上海交通大学GAIR实验室最新研究揭示AI视觉推理新途径

用思考生成图像:让AI以视觉思维突破认知边界——上海交通大学GAIR实验室最新研究揭示AI视觉推理新途径

这项研究提出了"用生成图像思考"的创新范式,使AI能够通过生成中间视觉步骤在文本和图像模态间自然思考。研究者实现了"原生长多模态思维过程",使大型多模态模型能够生成视觉子目标和自我批评视觉假设。实验表明,该方法在处理复杂多物体场景时性能提升高达50%,为医学研究、建筑设计和刑事侦查等领域开创了新的应用可能。

句子级预测:让大语言模型在高层抽象概念上进行推理

句子级预测:让大语言模型在高层抽象概念上进行推理

这项研究探索了让大语言模型从词级预测转向句子级预测的可能性。研究团队构建了一个框架,使预训练语言模型能在句子嵌入空间中进行推理,探索了语义嵌入和上下文嵌入两种范式。实验结果表明,上下文嵌入在连续推理模式下的表现与传统思维链方法相当,同时将推理时计算成本平均降低了一半。研究还开发了SentenceLens工具可视化内部推理过程,并展示了这种方法在模型规模扩展和模块化适应方面的潜力。这一突破性研究证明预训练语言模型可以有效过渡到更高层次的抽象推理。

揭秘指令特定神经元与专家:一个分析LLM指令跟随能力的全新框架

揭秘指令特定神经元与专家:一个分析LLM指令跟随能力的全新框架

这项由香港科技大学研究团队开展的创新研究揭示了大型语言模型(LLM)执行指令能力背后的神经机制。研究者通过提出SPARCOM分析框架,成功识别并分析了"指令特定神经元"和"指令特定专家"这两类稀疏组件在模型内部的分布与功能。通过精心设计的HEXAINST数据集,研究发现这些组件不仅具有功能通用性和独特性,而且在模型微调过程中发生显著变化。研究结果表明,模型的指令执行能力主要源于这些稀疏组件的精确激活,为理解LLM内部工作机制提供了新视角,对构建更可靠的AI系统具有重要指导意义。

MUSEG:清华-阿里团队打造时间感知多段定位技术,大幅提升视频理解能力

MUSEG:清华-阿里团队打造时间感知多段定位技术,大幅提升视频理解能力

清华大学与阿里巴巴通义实验室联合研发的MUSEG技术通过创新的时间戳感知多段定位方法,显著提升了视频中的时间理解能力。该方法引入多段定位任务和精心设计的阶段性奖励机制,使模型能够精确识别视频中的多个相关事件及其时间关系。实验表明,MUSEG在各类时间理解任务上全面超越现有方法,为未来视频智能分析开辟了新方向。

像人类需要疫苗一样,AI模型也需要"免疫":Vector研究所提出模型免疫方法对抗虚假信息

像人类需要疫苗一样,AI模型也需要"免疫":Vector研究所提出模型免疫方法对抗虚假信息

这项由加拿大Vector研究所领导的研究提出了"模型免疫"概念,通过让AI模型在训练过程中接触已标记的虚假信息,增强其辨别和拒绝类似虚假内容的能力。类比人类疫苗接种原理,研究者在微调阶段向模型注入约5-10%的已标记错误内容作为"疫苗"。初步实验表明,免疫后的模型处理虚假信息的能力从60%提升至78%,同时保持了常规任务性能。研究团队还设计了严格的伦理与治理框架,确保虚假内容使用安全。这一方法为提高AI系统的事实准确性提供了预防性解决方案。

DeepResearchGym:一款免费、透明且可复现的深度研究评估沙盒,让研究者摆脱商业搜索API的束缚

DeepResearchGym:一款免费、透明且可复现的深度研究评估沙盒,让研究者摆脱商业搜索API的束缚

DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。

打造自主信息搜索智能体:阿里巴巴WebDancer的探索之路

阿里巴巴集团和同义实验室的研究团队推出了WebDancer,这是一种能够在网络上自主搜索信息并回答复杂问题的智能体系统。研究团队提出了一个四阶段构建框架,包括数据合成、轨迹采样、监督微调和强化学习。他们创新性地开发了CRAWLQA和E2HQA两种方法来生成高质量训练数据,并采用ReAct框架使智能体能够交替进行思考和行动。实验结果表明,WebDancer在GAIA和WebWalkerQA等基准测试中表现优异,甚至在某些情况下超越了GPT-4o,证明了该方法在构建自主信息搜索智能体方面的有效性。

无需验证师:如何让大型语言模型在没有答案检查者的情况下进行更好的推理

无需验证师:如何让大型语言模型在没有答案检查者的情况下进行更好的推理

这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。