VAST Data与谷歌云宣布推出全托管VAST AI OS服务,提供支持谷歌TPU的跨混合环境统一全局命名空间。该AI OS整合了VAST完整软件栈,通过GPU服务器和网络硬件为AI模型提供训练、推理和智能交互环境。企业客户可无缝连接谷歌云和本地集群,消除复杂迁移过程。测试显示,该系统在美国TPU和日本GPU处理集群间实现近实时数据访问,模型加载速度与本地NVMe磁盘相当。
Qilimanjaro量子科技公司在西班牙巴塞罗那开设了号称欧洲首个多模态量子数据中心,准备提供基于云的量子计算服务。该设施将容纳多达10台量子计算机,为数千用户提供数字和模拟量子计算机访问服务,用于分子模拟、材料研究、AI模型训练和大规模优化问题求解。预计量子计算市场将从2025年的16亿美元增长到2030年的73亿美元。
人工智能正在深刻影响各行各业,但许多企业在AI转型过程中遭遇延迟、成本飙升等问题。根本原因在于传统企业网络无法支撑AI工作负载的需求。AI需要处理大量非结构化数据,依赖高性能计算集群和低延迟高吞吐量连接,常跨越混合云和多云架构。传统网络针对分支到数据中心流量优化,无法满足大规模GPU训练或多云推理扩展需求。企业必须优先解决网络问题,构建云优先、弹性可扩展的基础设施,确保网络不成为业务转型的限制因素。
网约车巨头Grab在新加坡启动高精度GPS试点项目,与Oppo、高通和Swift Navigation合作,在东南亚首次在手机端实现车道级定位精度。该系统结合双频GPS、高通骁龙8 Elite平台和云端校正服务,将定位误差从20米大幅降低。试点涉及近250名司机,其中60人配备Oppo Find N5折叠手机。技术可显著改善高楼密集区域和地下隧道的导航体验,为用户提供更准确的预计到达时间。
诺基亚贝尔实验室与日本运营商KDDI签署联合研究协议,探索提升6G网络能效和韧性的新方法。双方将结合KDDI的真实网络数据和运营洞察,以及诺基亚贝尔实验室的先进能耗模型和可编程网络架构专业知识,重点研究移动多输入多输出能效优化和分布式可编程核心网络服务,旨在降低基站能耗、增强通信能力,并确保基础设施故障和自然灾害期间的持续通信。
2025年11月8日,于第七届中国超级算力大会(ChinaSC 2025)北京主会场的重要环节,陕西安康市高新技术产业开发区管理委员会(以下简称“安康高新区”)与中国智能计算产业联盟正式签订战略合作协议。
第七届中国超级算力大会北京现场,西部算力枢纽的重要拼图——陕西智算云谷,凭借其绿色高效的智能算力布局,正从国家“东数西算”的宏伟蓝图中跃然而出。
此次发布的具身装卸技术通过加载一颗高度智慧的机器人大脑,实现 AI自主规划装卸流程, 完成“自主货车识别→路径规划→载具识别→精准停靠→自动装卸→任务反馈” 装卸全流程无人化闭环。
2025年11月23日—25日,以“凝芯聚力·链动未来”为主题,由中国半导体行业协会、中国电子信息产业发展研究院主办,北京赛迪出版传媒有限公司承办的第二十二届中国国际半导体博览会(IC China 2025)即将亮相北京·国家会议中心。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。
这项由中科院软件所联合阿里团队完成的研究提出了DeepMiner训练框架,通过反向构建复杂搜索问题和动态记忆管理技术,成功训练出能进行长时间深度搜索的AI助手。该方法在保持32k标准记忆容量的情况下实现近100轮搜索交互,在BrowseComp基准上达到33.5%准确率,比之前最好的开源模型提升近20个百分点,为构建实用化深度搜索AI奠定基础。
上海人工智能实验室联合牛津大学等机构发布CoMAS框架,首次实现多个AI智能体通过相互讨论、评价和学习来自主提升能力。该方法模仿人类群体智慧,让AI们在解决问题时相互批评指正,无需外部指导即可实现协同进化。实验显示在数学、编程等多领域测试中性能显著提升,为AI发展提供了从"独自学习"到"协同进化"的全新路径。
腾讯优图团队开发的Training-Free GRPO技术提供了一种革命性的AI优化方法,通过经验积累而非参数训练来提升大语言模型性能。该技术在数学推理和网络搜索任务上显著优于传统方法,成本仅为传统方法的千分之二,且只需要极少的训练样本。这项创新为AI技术的普及应用开辟了新路径。
清华大学研究团队提出ERA方法,通过特殊设计的激活函数解决AI训练中的探索-利用平衡难题。该方法在机器人控制、大语言模型和图像分类三大领域均实现显著性能提升,且计算开销不到7%。ERA将熵约束嵌入网络架构而非修改目标函数,为AI系统设计提供了新的理论框架和实用工具,具有广泛的跨域适用性和重要的应用前景。
微软亚洲研究院团队提出了一种革命性的大语言模型训练方法,通过"模型扩展"技术让已训练的小模型"升级"为大模型,而非从零重新训练。研究针对专家混合架构模型,创新性地采用"插入式"深度扩展和"加噪音"宽度扩展策略,成功将170亿参数模型扩展至700亿参数。实验证明在相同计算预算下,该方法比传统训练方式性能提升10.66%,为AI行业提供了更经济高效的模型训练新路径。
斯坦福大学等顶尖院校联合开发了名为SciVideoBench的AI科学推理测试系统,这是首个专门评估AI在真实科学实验视频理解能力的基准测试。该测试包含1000道基于研究级实验视频的高难度题目,涵盖物理、化学、生物、医学四大领域。即使最强的AI模型正确率也仅64.3%,而博士生平均仅17.4%,揭示了AI在科学推理方面的巨大发展空间,为未来AI科学助手的发展指明了方向。