2025年5月20日至21日,由埃克塞尔集团与孝南区政府联合主办,中国智能计算产业联盟秘书长安静主持的“数智创新 算力未来”主题活动暨算力经济专家座谈会,在湖北省孝感市孝南区成功举办。
斯坦福大学与微软研究院联合开发的通用用户模型(GUM)突破了传统用户模型的局限性,实现了跨应用、跨情境的用户理解。这项研究通过分析用户日常计算机使用行为,构建置信度加权的自然语言命题,精确捕捉用户行为、知识与偏好。研究团队基于GUM开发了Gumbo助手,能主动发现并执行用户潜在需求的任务,如为婚礼找租西装地点或创建搬家计划。实验证明GUM提供高准确度(76.15%)和良好校准的用户理解,为实现计算机真正理解人类需求的愿景铺平了道路。
这篇研究探讨了模型合并技术在大型语言模型预训练中的应用。字节跳动Seed团队通过从百万到千亿参数级别的系统实验证明,在稳定训练阶段合并检查点不仅显著提升模型性能,还能准确预测学习率衰减效果,大大节省计算资源。研究提出的PMA策略使恒定学习率训练后通过简单合并就能获得相当于完成衰减训练的效果。此外,他们还发现该技术能有效提高训练稳定性,避免训练崩溃。通过全面实验分析,研究为开源社区提供了实用的预训练模型合并指南。
亚马逊云科技近日正式推出新一代企业现代化服务 Amazon Transform,通过Agentic AI加速企业核心工作负载向云原生架构迁移,将原本耗时18个月以上的传统流程压缩至数周甚至数天。
当前,大模型领域的竞争已全面展开——从硬件架构到软件算法的各个层面,厂商都在展示技术实力。而拥有海量数据存储经验的云服务商们,正通过优化硬盘与固态硬盘的混合存储架构,为规模化AI分析提供支撑,并推出一系列创新AI应用。
近日,曙光存储集中式全闪存储FlashNexus,在“中国移动2025-2027年全闪存存储产品集中采购项目”中以第二份额(27%)中标,合同金额高达3871万元,补齐了集中式存储的拼图。
配备Priority Core Turbo的全新至强6处理器可提升AI工作负载性能,并将率先应用于英伟达最新推出的DGX B300 AI系统。
AI PC的“规模效应”下,不仅仅是处理器、GPU的狂飙突进,更是一场对存储技术的“大考”。PC存储,正在经历一场结构性的升级。
Meta 推出“Llama for Startups”计划,为在美初创企业提供直接支持与资金,助力开发生成式 AI 应用;同时,Meta在 Llama 模型研发中面临竞争与挑战,努力推动 AI 业务增长。
奥兰多魔术队与SAS达成战略合作,借助SAS Viya平台,通过数据和AI技术全方位提升球迷现场及数字化体验,同时优化票务预测与运营管理。
本文讨论了 MCP、ACP 与 Agent2Agent 三项协议如何助力 AI 系统的互联互通,降低整合复杂性,推动从试验向实用化转型。
DataCore 通过收购专注边缘及分支办公室超融合基础设施(HCI)的 StarWind,结合强大软件优势和虚拟 SAN 技术,旨在为分布式网络提供更灵活、经济和高效的存储解决方案。
Dell专家指出,主动式AI将大幅提高计算、存储与网络等基础设施要求,其代币处理、长期记忆和多领域应用均远超现有GenAI能力。
浙江大学ReLER实验室研究团队提出了SEED-GRPO,一种基于语义熵的不确定性感知策略优化方法,用于改进大型语言模型的训练。该方法通过计算模型对不同问题回答的语义多样性,来识别模型的不确定性程度,并据此动态调整学习力度。在五个数学推理基准测试上,SEED-GRPO取得了显著的性能提升,平均准确率达58.2%,在AIME24基准上更是达到56.7%,超越了许多参数量更大的模型,展示了不确定性感知学习在人工智能训练中的巨大潜力。
这篇论文介绍了HISTAI数据集,这是一个包含60,000多张全切片影像的大规模开源病理学数据集。由HistAI团队开发,该数据集涵盖多种组织类型,每个病例都附有详细的临床元数据,包括诊断信息、患者人口统计学数据和病理学注释。HISTAI旨在解决现有公开数据集在规模、多样性和注释方面的不足,促进更稳健、可泛化的AI诊断模型开发,推动计算病理学研究进步。
NVIDIA最新发布的HelpSteer3-Preference是一个包含超过4万个样本的开放许可偏好数据集,涵盖STEM、编程和多语言等多样化任务。由专业标注者标注的高质量数据使研究团队训练出在RM-Bench和JudgeBench基准上分别取得82.4%和73.7%准确率的顶尖奖励模型,比现有最佳模型提升约10%。研究还展示了如何利用这些奖励模型通过RLHF对齐大语言模型,在MT Bench和Arena Hard等评估基准上取得显著提升。这个以CC-BY-4.0许可证发布的数据集为开发更好的通用领域指令型语言模型提供了宝贵资源。
这项研究提出了一种创新的无配对数据训练方法,用于开发轻量级智能手机图像信号处理器(ISP)。传统方法需要具有像素级对齐的配对RAW-RGB数据,而该方法通过多重损失函数和三个鉴别器的对抗训练,成功实现了无需配对数据的高质量图像处理。研究在ZRR和富士胶片UltraISP数据集上测试,证明轻量级模型(仅3K参数)能达到接近配对训练的视觉效果,且适合在手机上实时运行。这一方法大大降低了开发手机相机处理算法的成本和技术门槛。
这项研究解决了语音合成中的多音字问题,特别针对资源有限的波斯语。研究团队提出了两大创新:一是构建HomoRich数据集,为多音字消歧提供丰富素材;二是重新思考G2P系统设计思路,利用这些数据改进基于规则的模型。他们既提升了神经网络模型Homo-GE2PE的准确率,又创造了HomoFast eSpeak这一快速规则模型,两者均实现约30%的多音字识别准确率提升。研究结果特别有助于提高屏幕阅读器等辅助技术的使用体验,对视障用户尤为重要。
这篇论文介绍了一种名为LATENTSEEK的创新框架,它通过在潜在空间进行测试时实例级政策梯度优化,显著提升了大型语言模型的推理能力。研究团队在GSM8K、MATH-500和AIME2024等基准测试上评估了该方法,结果显示LATENTSEEK比思维链方法平均提升了10.75%的准确率。该方法无需更新模型参数,计算高效,平均只需1-2次迭代即可收敛,同时证明了潜在空间中的测试时扩展可行性。
圣地亚哥大学团队提出的VSA(视频稀疏注意力)机制,通过巧妙的两阶段设计解决了视频生成模型的计算瓶颈。它首先将视频分割成小立方体,在粗粒度层面快速识别重要区域,再只在这些区域内进行精细计算。实验表明,VSA能在不损失生成质量的情况下将训练计算量减少2.53倍,将推理时间从31秒缩短至18秒。这一可训练的稀疏注意力机制为大规模视频生成模型的进一步发展铺平了道路。