7月10日,上海市政府新闻办举行2025世界人工智能大会暨人工智能全球治理高级别会议新闻发布会,上海市政府副秘书长、市经济信息化委主任张英介绍大会总体安排和筹备进展情况。
在云计算浪潮中厚积薄发的“上升螺旋”,为阿里云和神州数码在AI时代的同频共振奠定了最坚实的基础。
铠侠正在测试最新的UFS v4.1嵌入式闪存芯片,专为智能手机和平板电脑设计,可提供更快的下载速度和更流畅的设备端AI应用性能。该芯片采用218层TLC 3D NAND技术,提供256GB、512GB和1TB容量选择。相比v4.0产品,随机写入性能提升约30%,随机读取性能提升35-45%,同时功耗效率改善15-20%。新标准还增加了主机发起碎片整理、增强异常处理等功能特性。
谷歌在伦敦云峰会上发布Firebase Studio更新,新增Gemini命令行界面集成、模型上下文协议支持和"代理模式"。代理模式提供三种AI协作层次:对话式"询问"模式用于头脑风暴,人机协作代理需开发者确认代码变更,以及几乎完全自主的代理模式。尽管谷歌声称已有数百万应用使用该平台,但目前仍需精心设计提示词,非工程师用户还无法直接创建成熟应用。
上海AI实验室团队提出创新的异步拍摄方案,仅用普通相机就能实现高速4D重建。该方法通过错开相机启动时间将有效帧率从25FPS提升至100-200FPS,并结合视频扩散模型修复稀疏视角导致的重建伪影。实验结果显示,新方法在处理快速运动场景时显著优于现有技术,为低成本高质量4D内容创作开辟新路径。
上海AI实验室联手复旦大学提出了POLAR方法,这是一种革命性的奖励模型训练技术。通过让AI学会识别不同策略间的差异而非死记评分标准,POLAR在多项任务上实现了显著提升,7B参数模型超越72B现有最强基线,为AI对齐问题提供了全新解决思路。
复旦大学团队发布BMMR数据集,这是首个大规模跨学科多模态推理评估基准,包含11万个涵盖300个学科的大学水平问题。研究发现即使最先进的AI模型在跨学科推理中表现有限,揭示了当前AI发展的重要盲点。该数据集支持中英双语,配备专门的推理过程评估工具,为AI向通用智能发展提供重要支撑。
谷歌周四宣布,通过Gemini应用为其Veo 3 AI视频生成器增加图像生成视频功能。该功能此前已在5月I/O开发者大会上推出的AI视频工具Flow中提供。目前Veo 3视频生成功能已在150多个国家推出,仅限Google AI Ultra和Pro用户使用,每日限制生成3个视频。用户可上传照片并添加音频描述来生成视频。发布7周来,用户已创建超过4000万个视频,所有视频都带有可见和不可见的数字水印。
上海交通大学等多所院校联合开发的DreamVLA系统让机器人具备了"预知未来"的能力,通过预测动态变化、空间结构和物体语义来指导行动,在真实世界测试中达到76.7%成功率,在模拟环境CALVIN基准中创下4.44平均任务长度新纪录。该系统采用分块注意力机制协调三种预测能力,并使用扩散变换器从噪声中生成精确动作,代表了从"反应式"向"预测式"机器人智能的重要突破。
据报道,英伟达计划最早于9月推出专为中国市场设计的AI芯片,以应对美国出口限制。该芯片基于Blackwell RTX Pro 6000处理器,已经过修改以符合现有AI芯片限制规定,不包含高带宽内存和NVLink高速通信接口等高级功能。此前英伟达CEO表示不再将中国市场纳入收入预测,但这一变化可能是短暂的。
这项由中科院计算所团队开发的REFINEX框架,通过创新的删除式编辑方法,解决了AI训练数据质量低的问题。该方法先用专家模型生成高质量文本,再提取删除操作训练小型编辑模型,既保证了数据质量又提高了处理效率。实验显示,REFINEX让750M参数模型性能提升2.6%-7.2%,同时显著降低训练成本。
腾讯混元团队推出ArtifactsBench,这是全球首个专门评测AI生成视觉交互代码质量的综合基准系统。该系统包含1825个真实应用场景测试任务,创新性地通过实际运行代码、动态截图、多模态AI评委等方式,从功能性、美观度、用户体验等十个维度进行评测。实验结果显示其与人类专家判断一致性超过90%,与业界金标准WebDev Arena的一致性达94.4%,为AI代码生成能力评估树立了新标准。
YouTube计划7月15日更新货币化政策,针对"非真实"内容进行打击,主要目标是减缓平台上AI生成内容的泛滥。新政策将更好识别批量生产和重复性内容,包括仅有表面差异的旁白故事频道和相同解说的幻灯片视频。虽然YouTube强调这只是对现有"重复内容"指导原则的小幅更新,但业界认为此举主要针对低价值AI垃圾内容问题。
这项由加州大学伯克利分校、香港大学和Adobe联合开展的研究,开发了名为X-Planner的AI图像编辑规划系统,解决了现有AI工具难以理解复杂编辑指令的问题。该系统能将"让图片看起来像夏天"等自然语言指令智能分解为具体编辑步骤,并自动生成精确的控制信息,显著提升了AI图像编辑的准确性和可控性。
本研究提出了VLM2Vec-V2多模态嵌入模型和MMEB-V2评估基准,首次实现对文本、图片、视频和文档的统一理解。该模型在78个任务上全面领先现有基线,展示了从专门化向通用化发展的重要趋势,为多媒体内容理解、智能搜索和人机交互带来突破性进展。
乔治梅森大学研究发现,最新AI模型在预测准确性上首次超越普通人群,但仍显著落后于人类顶级预测专家。通过464个真实预测问题的测试,OpenAI的o3模型表现最佳,但"超级预测师"的表现仍是AI的六倍。研究揭示AI在政治预测上表现较好,但在经济问题上相对较弱,同时存在过度自信的问题。
这项由卡内基梅隆大学团队提出的Mod-X框架,旨在解决AI智能体之间无法有效协作的核心问题。通过分层架构设计,包括通用消息总线、语义翻译层、状态管理和区块链安全机制,实现了不同技术背景的AI系统无障碍通信。该框架采用发布-订阅模式,支持语义能力发现和动态工作流编排,为构建真正去中心化的AI生态系统奠定了基础。
SAP实验室研究团队开发了DIAFORGE系统,通过三阶段训练显著提升AI助手在企业环境中的工具调用准确性。该方法专门解决AI助手面对相似工具时的选择困难,通过模拟真实企业场景训练AI主动澄清用户需求。实验结果显示,经过训练的模型比GPT-4o和Claude-3.5-Sonnet分别高出27和49个百分点,为企业AI助手的实际应用提供了重要突破。
澳大利亚研究团队开发出PresentAgent,这是一个能将任何文档自动转换为专业演示视频的AI系统。该系统集成了文档解析、幻灯片设计、语音合成等功能,并创建了全新的多维度评价体系。实验显示,AI生成的演示视频在多项指标上接近人类专家水平,为教育、商业等领域的演示制作提供了高效解决方案。
Meta和加州大学伯克利分校的研究团队开发了StreamDiT技术,实现了首个真正意义上的实时AI视频生成系统。该技术能够像熟练摄影师一样根据文字描述即时生成高质量视频,支持用户在生成过程中实时调整内容。通过创新的"缓冲流匹配"训练方法和高效的模型架构设计,StreamDiT在单GPU上实现了16FPS的实时性能,为视频创作、游戏、教育等领域开辟了全新可能性。