Salesforce以80亿美元收购Informatica,整合双方数据管理与agentic AI优势,构建企业统一数据平台,加速低代码AI方案落地。
OnePlus 推出多项 AI 功能,包括语音记录、翻译、智能拍照及屏幕录制,并通过全新 Plus Key 整合这些体验,将率先在印度市场的 OnePlus 13 系列手机中应用。
Mistral AI 推出新专有 API,利用 Mistral Medium 3 模型快速集成自主生成 AI 代理。平台内置 Python 执行、图像生成、文档库 ( RAG ) 及网络搜索等功能,支持多代理协同处理复杂任务,适用于各领域应用。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
这项由香港中文大学和新加坡国立大学研究者合作开发的"思考或不思考"(TON)框架,通过创新的"思考丢弃"策略和两阶段训练方法,实现了让视觉-语言模型能够像人类一样根据问题难度选择性推理的能力。实验表明,TON可减少高达90%的输出长度,同时保持或提升性能,在计数、数学和导航等多种任务中展现出显著优势,为AI系统在保持推理质量的同时大幅提升效率提供了新思路。
GRIT是一种创新框架,它教会多模态大语言模型(MLLMs)在视觉推理过程中"边看边思考"。传统MLLMs虽能处理图像和文字,但无法明确指出推理时关注的具体图像区域。GRIT通过引入一种新的推理范式,让模型生成的推理内容自然地混合文本和边界框坐标,使AI能像人类一样在思考时明确参考视觉信息。研究团队开发的GRPO-GR强化学习方法不需要详细标注数据,仅用20个训练样本就能赋予模型这种能力。
Tool-Star是人民大学研究团队开发的AI多工具协作系统,它通过强化学习使大型语言模型能够自主调用多种外部工具进行推理。该系统采用创新的数据合成流程和两阶段训练框架,包括冷启动微调和带有层级奖励的自我批评强化学习。在10项挑战性推理任务中,Tool-Star展现出卓越性能,证明了多工具协作方法的有效性,为AI系统扩展能力边界开辟了新路径。
本文探讨如何借助人工智能和数据科学实现医疗研发、生产及护理的极速升级,通过提高数据采集、处理与解读能力,为患者带来精准诊疗和创新药物,同时解决技术普及难题。
微软为记事本、画图和截屏工具引入了 AI 增强功能,可实现文本生成、贴纸创作和自动优化截屏。记事本和画图的新功能仅面向 Microsoft 365、Copilot Pro 用户及 Copilot Plus PC,而截屏工具功能对所有人均开放。
本文介绍了微软最新开源协议 NLWeb,它利用现有结构化数据,将网站转变为支持自然语言交互的 AI 应用,为企业构建 agentic AI 提供新路径,同时对比了当前其他 AI 协议的特性与优劣。
文章详细分析了企业在推广代理型人工智能时面临的基础设施高投入、技术整合、专才匮乏以及后续管理等挑战,并探讨了如何构建完善生态系统以实现实际业务价值。
文章探讨了人工智能如何瓦解知识工作者的传统职业与身份,促使他们重新定义自我、发掘机器难以替代的人文优势。
英伟达为应对出口限制,正在研发基于 Blackwell 架构但规格较低、成本较低的新型 AI 芯片,计划6月开始量产,抢占中国市场。
这项研究揭示了熵最小化作为单独目标可显著提升大型语言模型在数学、物理和编程任务上的推理能力,无需任何标记数据。伊利诺伊大学厄巴纳-香槟分校的研究团队提出三种方法:无监督微调(EM-FT)、基于熵奖励的强化学习(EM-RL)和推理时优化(EM-INF)。实验表明,这些方法在某些任务上甚至超过需要大量标记数据的先进技术,证明许多预训练模型已具备被低估的推理能力,只需简单的熵最小化即可激发。
这篇文章介绍了马里兰大学研究团队开发的BLEUBERI方法,该方法惊人地发现被认为过于简单的BLEU评分系统在指导大语言模型遵循指令方面非常有效。研究表明,当使用高质量参考答案时,BLEU与人类偏好的一致率可达74.2%,几乎与复杂的奖励模型相当。基于此,团队开发的BLEUBERI方法在多个基准测试中表现与传统奖励模型方法相当,且在事实准确性方面表现更佳。这一发现为语言模型对齐提供了更经济高效的途径,无需大量人类标注数据和复杂的奖励模型训练。
BANDITSPEC是一项创新研究,将多臂赌博机算法应用于大型语言模型的推测解码过程,实现了无需训练的自适应超参数选择。研究团队通过理论分析和实验证明,该方法能在各种基准测试中显著提升模型推理速度,比现有方法快13-19%,并能适应不同类型的输入提示。这一技术为提高AI系统效率开辟了新路径,使未来的AI助手能更智能地适应各种任务需求。
WebNovelBench研究为评估AI的长篇故事创作能力提供了突破性方法,利用4000多部中国网络小说建立基准,将AI小说家与人类作品进行直接比较。研究者设计了"摘要转小说"任务,通过八个叙事维度进行评估,发现顶级AI模型如Qwen3-235B-A22B已接近高质量人类创作水平。研究揭示了开源模型正快速追赶专有模型,并为AI创意写作评估提供了可靠标准。这项工作不仅展示了AI在叙事创作领域的进步,也为理解人工智能与人类创造力的关系提供了新视角。
HumaniBench是由Vector研究院和中佛罗里达大学联合开发的首个以人为中心的大型多模态模型评测框架,包含约3.2万对真实世界图像-问题对。与传统仅关注准确率的评测不同,它从公平性、伦理性、理解能力、推理能力、语言包容性、共情能力和鲁棒性七个维度全面评估模型的"人性化"程度。研究对15个顶尖多模态模型的测试显示,闭源商业模型总体领先,但在视觉定位和抗干扰性上存在短板;开源模型在特定能力上表现出色,但在平衡准确率与人性化原则方面面临更大挑战。
这篇论文介绍了美团研究团队开发的"自适应自恢复推理"(ASRR)框架,解决了大型推理模型在简单问题上过度思考的效率问题。研究发现模型具有"内部自恢复机制",能在生成答案时隐式补充推理。ASRR通过无思考模式抑制不必要推理,并引入基于准确率阈值的动态长度惩罚,使模型根据问题难度自适应分配推理资源。实验表明,ASRR在保持高准确率的同时,大幅减少了推理长度(最高减少32.5%),并显著提升了安全性(无害率提高21.7%)。