OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
香港理工大学联合多所高校开发的Mol-R1框架,首次实现了AI在分子发现中的透明推理。该系统通过PRID方法学习专家推理模式,配合MoIA迭代训练策略,不仅能准确生成分子结构,还能展示完整思考过程。相比现有模型,Mol-R1推理更简洁高效,为药物研发等领域的AI应用提供了重要的安全保障。
蚂蚁集团AWorld团队发表突破性研究,创建动态多智能体协作系统解决AI稳定性难题。研究灵感来源于船舶导航,通过执行智能体和守护智能体的协作机制,在GAIA测试中准确率达67.89%,稳定性提升17.3%,荣登开源项目排行榜第一名。该系统为构建可靠智能系统开辟新路径,具有广阔应用前景。
上海交大和复旦大学研究团队发现了AI视觉系统的重大安全漏洞——IAG攻击。这种攻击能让AI助手在视觉定位时被恶意操控,无论用户询问什么,都会指向攻击者预设的错误目标,且几乎无法被察觉。实验显示攻击成功率超65%,现有防御技术完全失效,对机器人、自动驾驶等应用构成严重威胁。
浙江大学团队开发的Cooper框架实现了AI训练中的"教学相长",通过同步优化策略模型和奖励模型,成功解决了传统训练中的奖励黑客攻击问题。该框架让AI老师和学生同步成长,在数学推理任务上实现了显著性能提升,为构建更稳定可靠的AI系统开辟了新路径。
上海交通大学邓志杰教授团队开发出革命性的D2F技术,成功让AI文本生成速度比传统模型快2.5倍。该技术通过巧妙的分块并行处理和预测机制,在大幅提升速度的同时保持文本质量不变,打破了AI领域长期存在的"速度与质量不可兼得"难题,为未来AI应用带来重大突破。
德国慕尼黑工业大学联合谷歌等机构推出HyperNoise技术,通过训练专门的"噪声超网络"为AI图像生成模型提供最优起始条件,在几乎不增加推理时间的情况下显著提升生成质量。该技术将复杂的优化过程从推理时转移到训练时,实现了速度与质量的完美平衡,为快速高质量AI图像生成提供了突破性解决方案。
Perplexity多次尝试收购浏览器公司,包括340亿美元收购Chrome的传言。Opera认为浏览器将成为智能代理互联网的核心平台。Opera推出Neon项目,集成聊天、执行和创建功能的AI代理。在代理驱动的互联网中,用户只需下达指令,代理自动完成搜索、比较、购买等复杂任务。浏览器作为工作平台,能为AI代理提供丰富的上下文信息,使其更加智能有效。
Meta研究员Jack Morris成功将OpenAI的gpt-oss-20B模型逆向工程为基础版本,去除了推理行为和安全对齐限制。通过在三个层面应用LoRA技术,仅训练0.3%的参数,就恢复了模型的原始文本生成能力。新模型响应更快、更自由,但也带来安全风险。这项工作展示了开源模型发布后如何被快速改造,为研究偏见、记忆化等问题提供了新工具。
英伟达发布名为Granary的大规模开源多语言音频数据集,包含超过100万小时音频、65万小时语音识别和35万小时语音翻译数据,涵盖25种欧洲语言。同时推出Canary-1b-v2和Parakeet-tdt-0.6b-v6两个AI模型,用于语音翻译和转录任务。该数据集在GitHub免费开放,可帮助开发者为小众语言创建更包容的语音技术。
硅谷对类人通用人工智能的争论忽略了一个关键点:真正的超级智能不会出现在手机中,而是在企业系统中。企业通用智能(EGI)是先进AI的理想试验场,因为企业环境具有结构化复杂性和人为设计的参数。EGI需要五个核心能力:自主目标分解规划、跨平台系统状态感知、多系统行动选择验证、AI就绪的企业生态系统以及组合推理能力。未来人类将与EGI协作,承担创意、判断、审计和风险缓解角色。
最新研究显示,开源AI模型在执行相同任务时消耗的计算资源比闭源竞品高1.5至4倍,简单知识问答甚至高达10倍。尽管开源模型单token成本更低,但总计算需求的增加可能抵消其价格优势。研究发现OpenAI模型在token效率方面表现突出,而大型推理模型在处理简单问题时会消耗数百个token进行不必要的思考。这一发现挑战了开源模型更经济的传统认知,企业在评估AI部署策略时需重新考虑总体计算成本。
韩国电信巨头SK电信正在构建名为Haein Cluster的主权人工智能基础设施,采用英伟达Blackwell服务器和Vast Data的AI操作系统。该基础设施支持SKT的Petasus AI云服务,确保所有数据和处理都在韩国境内完成。通过部署虚拟化AI基础设施,SKT将GPU环境启动时间从数天缩短至10分钟,同时保持与裸机系统相当的性能水平。
研究人员警告称,基于大型语言模型的AI聊天机器人可被恶意改造,自动收集用户个人信息,攻击者仅需最基本技术知识即可实现。研究显示,经过恶意改造的聊天机器人能获取超过90%参与者的个人数据,远高于普通表单的24%。攻击者只需通过"系统提示"工具,为机器人分配"调查员"等角色即可绕过安全防护。研究涵盖502名参与者,使用三种主流语言模型进行测试。
谷歌DeepMind发布了迄今最小的AI模型之一Gemma 3 270M,仅有2.7亿个参数。该模型专为低功耗设备设计,可在智能手机等设备上离线运行。尽管体积小巧,但经过微调后仍能处理复杂的特定领域任务。在指令跟随基准测试中获得51.2%的成绩,超越同类小型模型。在Pixel 9 Pro上测试显示,25次对话仅消耗0.75%电量,展现出色的能效表现。
普渡大学研究团队开发了ASTRA红队系统,通过"空间时间探索"方法系统测试AI编程助手安全性。与传统方法不同,ASTRA专注现实使用场景,通过构建领域知识图谱和分析AI推理过程发现漏洞。实验显示ASTRA比现有技术多发现11-66%安全问题,生成的测试用例可提升AI安全训练效果17%,为AI编程助手安全保障提供了重要工具。
达拉斯德州大学和Zoom公司联合研究团队开发了LogicIFGen框架,用于测试AI模型执行复杂逻辑指令的能力。他们构建了包含426个任务的LogicIFEval测试集,对21个主流AI模型进行评估。结果显示即使是最先进的模型准确率也仅为85%,大部分模型低于60%。研究发现AI在控制流执行、状态跟踪等方面存在显著不足,具有思考能力的模型表现更好。
ChatGPT自2022年11月发布以来已成为全球现象,目前拥有3亿周活跃用户。2024年是OpenAI关键一年,推出了具备语音功能的GPT-4o、文本生成视频模型Sora,并与苹果合作开发Apple Intelligence。然而公司也面临高管离职、版权诉讼等挑战。2025年,OpenAI在与中国竞争对手的AI竞赛中努力保持领先地位,同时推进大型数据中心项目和融资计划。
谷歌正在为其免费AI研究助手NotebookLM开发一项代号为Magic View的神秘新功能。据AI新闻网站Testing Catalog通过功能标志分析发现,该功能将出现在Studio面板中,与音频和视频概览功能并列。目前尚不清楚Magic View的具体功能,但截图显示其界面类似点阵网格,用不同颜色的点填充。该功能可能专注于学习或面向学生用户,将被归类在新的Notebook Apps下拉菜单中。
摩根士丹利研究团队开发了专门掌握Q编程语言的AI模型QQwen,通过创新的三阶段训练方法(预训练、监督学习、强化学习),让开源AI模型在Q语言编程测试中达到59%准确率,超越GPT-4.1等商业模型。研究团队完全开源了模型、数据和训练代码,为AI专业化训练提供了可复制的成功范式,证明了中等规模开源模型通过针对性训练可以在特定领域超越大型商业模型的表现。