这项研究推出了VideoMathQA,一个创新基准测试,专门评估人工智能模型在视频中的数学推理能力。不同于静态图像或文本基准,它要求模型在时间轴上整合视觉、音频和文本信息,模拟真实教学场景中的"多模态大海捞针"挑战。基准测试涵盖10个数学领域,视频长度从10秒到1小时以上,设计了三种推理挑战:直接问题解决、概念迁移和深度理解。对30个模型的评估显示,专有与开源系统的差距正在缩小,而模型成功不仅取决于规模,还受架构和训练质量影响。
这篇研究介绍了Micro-Act,一种创新框架,旨在解决问答系统中的知识冲突问题。由香港大学等机构研发的这一方法能够自动感知上下文复杂度,并将知识源分解成一系列细粒度比较,有效克服了传统方法在处理复杂冲突时的局限性。实验表明,Micro-Act在五个基准数据集上显著超越了现有技术,并在无冲突场景中保持稳健性能,为构建更可靠的检索增强生成系统提供了新思路。
本文介绍了 Agentic AI 的概念、特点及应用,强调其自主决策、分解任务与执行复杂目标的能力,并探讨了应用场景与潜在风险。
本篇文章以 Navin Chaddha 的采访为主线,阐述了 AI 技术背后人际伙伴关系和早期合作的重要性,以及“协同智能即服务”的理念,强调未来创新依旧由人类主导,技术只是辅助工具。
CapSpeech是约翰·霍普金斯大学等机构联合提出的风格描述文本转语音合成基准,包含超过1000万机器标注和36万人工标注的语音-描述配对。它支持五大下游任务:基础风格描述、带音效的语音合成、口音控制、情感表达和表现力丰富的虚拟代理。研究团队开发了自回归和非自回归两种模型,并通过客观和主观评估证明了该基准的有效性。CapSpeech不仅丰富了语音合成的表现力和可控性,还为实际应用如有声读物、对话代理和跨文化语音合成铺平了道路。
Sandia国家实验室与SpiNNcloud合作推出的SpiNNaker2类脑超级计算机,依靠48芯片高并行架构及高速SRAM/DRAM通信,无需GPU或内置存储,适用于国防及前沿计算任务。
第三届Runway AI电影节展示了利用Runway、Midjourney等AI工具生成全新视听作品,颠覆传统电影制作,赋能无限创意。
文章探讨了互联网从以人为核心向为AI代理优化转型,未来网络将以高速、透明、可验证的机器接口为主。
华盛顿大学和卡内基梅隆大学的研究团队开发了"位置专家"(PosS)技术,解决了推测性解码中的关键挑战。传统方法使用单一草稿模型预测多个位置的词汇,导致预测质量随位置深入而急剧下降。PosS创新性地引入多个专业化层,每层负责特定位置的预测,有效缓解了特征偏差累积问题。实验表明,在Llama系列模型上,PosS比基线方法提高了接受长度达4.5%,加速比提升最多5.7%,而仅带来微小的计算开销。这一技术为大型语言模型的高效推理提供了新思路。
NVIDIA研究团队在最新研究中指出,小语言模型(SLM)将成为AI智能代理的未来。他们论证了SLM不仅足够强大,还在操作上更适合且经济性更高。研究显示现代SLM已可媲美更大模型的性能,同时推理成本降低10-30倍,微调更快捷。论文提出了从大型模型向小型模型转换的算法,并通过案例研究证明在实际智能代理中40-70%的LLM调用可被SLM替代。这一转变将大幅降低AI运营成本,推动更可持续的AI发展。
中国人民大学物理学院研究团队开发了HTSC-2025,这是一个专为AI预测超导临界温度而设计的常压高温超导体基准数据集。该数据集包含140个样本,涵盖了2023-2025年基于BCS理论预测的超导材料,平均Tc为27.3K,最高达160K。研究不仅提供了公开的评估框架,还总结了提高超导温度的物理策略,如空穴掺杂和轻元素引入。该基准已在GitHub开源,为AI驱动的超导材料发现提供了重要支持。
这项研究提出了VIDEO-SKILL-COT(别名VIDEO-SKOT),一种新型视频理解框架,能自动构建和利用技能感知的思维链进行领域自适应视频推理。北卡罗来纳大学教堂山分校的研究人员首先从训练问题中提取领域相关推理技能并聚类成共享技能分类法,然后为每个视频-问题对创建定制的多步骤思维链。接着,他们开发了技能专家学习框架,每个专家模块专注于特定推理技能集。在三个不同的视频理解基准测试上,该方法一致优于现有系统,显示了其出色的领域适应能力。
莫斯科物理技术学院和人工智能研究所共同开发的AmbiK数据集,专门用于评估大型语言模型处理厨房环境中歧义指令的能力。该数据集包含1000对任务,按照偏好类、常识知识类和安全类三种歧义类型分类,每对包含歧义和无歧义指令、环境描述、澄清问题和答案等完整信息。研究表明,现有最先进的方法在AmbiK上仍面临重大挑战,为相关研究提供了新的发展方向。
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
上海人工智能实验室的研究揭示了视觉语言模型具有"视觉拼接"能力,可以整合训练中看到的分散图像碎片。研究者将图像切分成不同粒度的碎片进行测试,发现模型不仅能根据完整图像识别相关信息,还能通过纯文本引用进行推断。这种能力虽有助于模型泛化,但也存在安全隐患:有害内容可被切分成看似无害的碎片绕过内容审核,而模型仍能将它们重组理解。研究团队建议开发超越样本级别的审核技术,以应对这一新兴安全挑战。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。
浙江大学研究团队开发的SVGenius是首个综合评估大语言模型SVG处理能力的基准测试系统。该研究涵盖2,377个测试样例,评估了22种主流AI模型在理解、编辑和生成三个维度上的表现。结果显示,虽然专有模型如Claude和GPT-4o表现最佳,但随着SVG复杂度增加,所有模型性能都明显下降;强化推理训练比单纯扩大模型规模更有效;风格转换是最具挑战性的任务。这一研究为开发更先进的AI辅助设计工具提供了关键见解,有望推动矢量图形技术发展和设计工作流程变革。