企业AI发展到关键节点,但多数项目在产生价值前就陷入停滞。数据科学家需要使用7-15种工具来处理数据,仍需数月时间才能获得可用状态。IDC显示仅44%的AI试点项目进入生产阶段。Hammerspace AI数据平台在NVIDIA GTC 2025上发布,通过虚拟化现有存储创建统一全局命名空间,支持多协议访问,内置向量数据库,让企业无需昂贵基础设施改造即可将现有数据转化为AI就绪资源。
Systemd v259-rc1发布,这是Linux系统中最广泛使用的系统服务管理器的下一版本预览。最重要的更新是新增了对musl libc的不完整支持,使systemd能够在Alpine Linux等轻量级发行版上运行。然而该支持存在重大功能限制,包括nss-systemd、DynamicUser等功能无法使用。此外,新版本还改进了内存溢出处理器、增强了用户空间设备管理、支持可配置日志级别,并对systemd-boot引导程序进行了多项改进。
硅谷科技巨头IBM和思科宣布合作计划,致力于构建大规模容错量子网络,使数万个量子比特协同工作解决复杂问题。两公司希望在五年内通过连接两台独立量子计算机并实现量子比特纠缠来实现这一愿景,随后将网络扩展至数十台分布式机器。最终目标是在2030年代末建成量子互联网基础设施,支持超安全通信和地震监测、气候变化等领域的先进传感器网络应用。
目前鸿蒙座舱用户数已突破120万,2025年1- 10月问界车型搭载版本的平均净推荐值达 93.6%,成用户口碑之选。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。
香港科技大学团队提出"空间强制"方法,让机器人无需3D传感器就能获得空间感知能力。通过让机器人向3D基础模型学习,该方法在保持硬件简单的同时,显著提升了机器人的空间理解和操作精度,训练效率提高3.8倍,为机器人技术发展开辟了新路径。
伊利诺伊大学团队开发的ERA框架通过创新的两阶段训练方法,让30亿参数的小型AI模型在具身智能任务上超越了GPT-4o等大型模型。该框架结合具身先验学习和在线强化学习,在高级规划和低级控制任务上分别实现了8.4%和19.4%的性能提升,为小而精的AI发展路径提供了重要示范。
香港大学团队开发的SRUM框架首次实现了统一多模态AI系统的内部自我指导机制。通过让系统的理解模块充当"内部教师"指导生成模块改进,结合全局-局部双重奖励评价系统,在复杂图像生成任务上取得显著突破,为AI系统自主改进开辟了新路径。
清华大学团队提出BGPO算法,巧妙解决扩散大语言模型强化学习训练中的内存瓶颈问题。通过将复杂指数运算转化为线性运算,实现内存使用量恒定,支持更大规模重复计算。实验显示该方法在数学、编程、游戏等任务上显著提升性能,其中游戏规划准确率提升68%,为AI训练效率优化提供新思路。
NVIDIA今日宣布,截至2025年10月26日的第三季度收入为570 亿美元,较上一季度增长 22%,较去年同期增长 62%。
日前,Gartner(R)发布2025年度全球《AI应用开发平台魔力象限》:凭借豆包大模型和火山方舟大模型服务平台 ,火山引擎领跑全球挑战者象限,在中国厂商中位居第一。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。
上海AI实验室团队开发出首个科学实验视频理解基准ExpVid,通过三层评估体系全面测试AI对真实实验室操作的理解能力。测试19个主流AI模型发现,虽然AI在基础识别上超越人类,但在复杂科学推理方面仍有巨大提升空间,为未来AI科研助手的发展指明方向。