当超级计算机被压缩进一个比书本还小的盒子里,这画面有多炸裂?想象一下,你桌面上摆着的不是什么花瓶摆件,而是一台能跑200B参数AI推理的"超算怪兽"——这就是我们今天要聊的主角:华硕Ascent GX10。
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
YouTube Gaming宣布推出Playables Builder开放测试版,允许特定创作者使用基于Gemini 3的原型网页应用制作小型游戏,无需编程知识。该工具类似于Google Labs的Disco和GenTabs项目,通过自然语言输入生成交互式内容。尽管AI助手能帮助用户无需技术知识即可创作,但优秀游戏需要技巧、迭代和专业知识才能打造真正有趣的体验。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
英伟达凭借其庞大的硬件业务利润,成为唯一能够承担免费提供AI模型成本的公司。随着OpenAI、Anthropic等专有模型制造商竞争加剧,Meta考虑转向封闭模型,英伟达却加倍投入开源Nemotron模型。公司可以成本价获得任何规模的AI集群进行训练,其AI Enterprise软件栈年费仅4500美元。新发布的Nemotron 3采用混合专家架构,结合Mamba-Transformer技术,显著提升推理效率和内存使用率。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。
OpenAI推出全新旗舰图像生成模型GPT Image 1.5,具备更强的指令理解能力、精准图片编辑功能,生成速度提升四倍。新模型在修改现有照片方面表现出色,支持实用的照片编辑、逼真的服装发型试穿效果,以及保持原图精髓的风格滤镜和概念转换。ChatGPT侧边栏新增专用图像标签页,提供预设滤镜和热门提示。OpenAI将此定位为企业级实用工具,从新奇图像生成转向实用高保真视觉创作。
阿里巴巴RecGPT团队开发的RecGPT-V2系统通过多代理协作、动态解释生成、约束强化学习等创新技术,将推荐系统从简单的行为匹配升级为深度意图理解。在淘宝平台测试中实现了点击率提升2.98%、交易额增长2.19%等显著改进,同时GPU消耗降低60%,代表了推荐系统向智能化转型的重大突破。
普渡大学和佐治亚理工学院研究人员提出采用脑启发算法构建AI计算机架构的新方法。研究显示,传统冯·诺依曼架构中处理器与内存分离造成数据传输瓶颈,随着AI模型规模四年内增长5000倍,能耗问题日益严重。研究团队建议采用脉冲神经网络和存内计算技术,将处理和存储功能集成,突破"内存墙"限制,显著降低AI模型能耗,使AI设备更适用于医疗、交通和无人机等实际应用场景。
北京大学团队开发了名为Scone的AI绘画新技术,解决了现有AI在复杂图像中无法准确识别指定对象的问题。该系统通过"理解桥梁"策略,让AI能像人类一样精准理解用户指令,在包含多个候选对象的图像中准确识别目标并生成相应画面。团队还创建了SconeEval评测基准,Scone在测试中表现优异,在开源模型中排名第一。