Sandia国家实验室与SpiNNcloud合作推出的SpiNNaker2类脑超级计算机,依靠48芯片高并行架构及高速SRAM/DRAM通信,无需GPU或内置存储,适用于国防及前沿计算任务。
第三届Runway AI电影节展示了利用Runway、Midjourney等AI工具生成全新视听作品,颠覆传统电影制作,赋能无限创意。
文章探讨了互联网从以人为核心向为AI代理优化转型,未来网络将以高速、透明、可验证的机器接口为主。
华盛顿大学和卡内基梅隆大学的研究团队开发了"位置专家"(PosS)技术,解决了推测性解码中的关键挑战。传统方法使用单一草稿模型预测多个位置的词汇,导致预测质量随位置深入而急剧下降。PosS创新性地引入多个专业化层,每层负责特定位置的预测,有效缓解了特征偏差累积问题。实验表明,在Llama系列模型上,PosS比基线方法提高了接受长度达4.5%,加速比提升最多5.7%,而仅带来微小的计算开销。这一技术为大型语言模型的高效推理提供了新思路。
NVIDIA研究团队在最新研究中指出,小语言模型(SLM)将成为AI智能代理的未来。他们论证了SLM不仅足够强大,还在操作上更适合且经济性更高。研究显示现代SLM已可媲美更大模型的性能,同时推理成本降低10-30倍,微调更快捷。论文提出了从大型模型向小型模型转换的算法,并通过案例研究证明在实际智能代理中40-70%的LLM调用可被SLM替代。这一转变将大幅降低AI运营成本,推动更可持续的AI发展。
中国人民大学物理学院研究团队开发了HTSC-2025,这是一个专为AI预测超导临界温度而设计的常压高温超导体基准数据集。该数据集包含140个样本,涵盖了2023-2025年基于BCS理论预测的超导材料,平均Tc为27.3K,最高达160K。研究不仅提供了公开的评估框架,还总结了提高超导温度的物理策略,如空穴掺杂和轻元素引入。该基准已在GitHub开源,为AI驱动的超导材料发现提供了重要支持。
这项研究提出了VIDEO-SKILL-COT(别名VIDEO-SKOT),一种新型视频理解框架,能自动构建和利用技能感知的思维链进行领域自适应视频推理。北卡罗来纳大学教堂山分校的研究人员首先从训练问题中提取领域相关推理技能并聚类成共享技能分类法,然后为每个视频-问题对创建定制的多步骤思维链。接着,他们开发了技能专家学习框架,每个专家模块专注于特定推理技能集。在三个不同的视频理解基准测试上,该方法一致优于现有系统,显示了其出色的领域适应能力。
莫斯科物理技术学院和人工智能研究所共同开发的AmbiK数据集,专门用于评估大型语言模型处理厨房环境中歧义指令的能力。该数据集包含1000对任务,按照偏好类、常识知识类和安全类三种歧义类型分类,每对包含歧义和无歧义指令、环境描述、澄清问题和答案等完整信息。研究表明,现有最先进的方法在AmbiK上仍面临重大挑战,为相关研究提供了新的发展方向。
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
上海人工智能实验室的研究揭示了视觉语言模型具有"视觉拼接"能力,可以整合训练中看到的分散图像碎片。研究者将图像切分成不同粒度的碎片进行测试,发现模型不仅能根据完整图像识别相关信息,还能通过纯文本引用进行推断。这种能力虽有助于模型泛化,但也存在安全隐患:有害内容可被切分成看似无害的碎片绕过内容审核,而模型仍能将它们重组理解。研究团队建议开发超越样本级别的审核技术,以应对这一新兴安全挑战。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。
浙江大学研究团队开发的SVGenius是首个综合评估大语言模型SVG处理能力的基准测试系统。该研究涵盖2,377个测试样例,评估了22种主流AI模型在理解、编辑和生成三个维度上的表现。结果显示,虽然专有模型如Claude和GPT-4o表现最佳,但随着SVG复杂度增加,所有模型性能都明显下降;强化推理训练比单纯扩大模型规模更有效;风格转换是最具挑战性的任务。这一研究为开发更先进的AI辅助设计工具提供了关键见解,有望推动矢量图形技术发展和设计工作流程变革。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。