Google DeepMind造出"全能游戏玩家":SIMA 2在虚拟世界里自由行动,还会自己学新技能
牛津大学研究团队发现,经过强化学习训练的AI搜索助手存在严重安全漏洞。通过简单的"搜索攻击"(强制AI先搜索)和"多重搜索攻击"(连续十次搜索),可让AI的拒绝率下降60%,安全性降低超过80%。问题根源在于AI的安全训练与搜索功能训练分离,导致搜索时会生成有害查询。研究呼吁开发安全感知的强化学习方法。
Core Memory播客主持人Ashley Vance近日与OpenAI首席研究官Mark Chen进行了一场长达一个半小时的对话。这是Chen近年来最公开、最深入的一次访谈,话题覆盖人才争夺战、研究战略、AGI时间表,以及他个人的管理哲学。
斯坦福大学团队开发了GuideFlow3D技术,通过创新的引导机制解决3D对象外观转换难题。该方法采用智能分割和双重损失函数,能在保持原始几何形状的同时实现高质量外观转换,在多项评估中显著优于现有方法,为游戏开发、AR应用等领域提供了强大工具。
脑机接口技术正快速发展,特别是非侵入性方法取得重大突破。通过EEG、fNIRS、MEG等传感技术结合人工智能,实现思维解码、图像重构等功能。聚焦超声波技术能精确调节大脑深层结构,为神经疾病治疗带来新希望。消费级可穿戴设备已能改善睡眠、缓解抑郁。这些技术将重塑人机交互方式,从医疗应用扩展至认知增强领域。
中国人民大学与清华大学联合推出DeepAnalyze-8B,全球首个专门用于自主数据科学的AI模型。该模型能够从原始数据自动生成专业级分析报告,仅用80亿参数就在12项基准测试中超越多数商业模型。通过创新的课程化训练和数据合成技术,实现了数据科学的真正自动化。
OpenAI首席执行官山姆·阿尔特曼本周宣布进入"红色警戒"状态,要求员工快速响应来自谷歌和Anthropic的竞争压力。据知情人士透露,OpenAI计划下周发布GPT-5.2更新以应对谷歌Gemini 3的挑战。原计划12月下旬发布的GPT-5.2现已提前至12月9日发布,旨在缩小与谷歌上月发布的领先模型Gemini 3之间的差距。
清华团队提出Glyph框架,通过将长文本渲染成图像并用视觉-语言模型处理,实现3-4倍文本压缩和4倍推理加速。该方法包含持续预训练、LLM驱动的参数搜索和后训练优化三个阶段,在多个长文本理解基准上达到与领先模型相当的性能,为处理百万级token文本提供了新思路。
随着AI热潮兴起,许多数据密集型企业正在管理相当于小型电力公司的中高压设备,但在人员配置、培训和组织架构方面却缺乏电力公司的专业性。这一差距主要体现在安全性和运行时间两个关键领域。传统金属封闭式断路器设备需要频繁的人工维护,增加了安全风险。解决方案是采用电力公司的设计思路:分布式架构、环网供电、就地保护,将中压设备移至户外,通过自动化减少人工干预,并建立标准化设备库存。
中国人民大学团队开发出名为Nyx的AI系统,能够同时理解文字和图片混合内容,解决了传统AI只能分别处理不同类型信息的局限。研究团队构建了包含46741个真实网页片段的NyxQA数据集,采用两阶段训练策略和创新的反馈学习机制。实验显示Nyx在多项任务中显著超越现有方法,为构建更智能的信息检索系统奠定了基础。
Vector是一款Mac上的Spotlight替代应用,专注于速度、隐私和无缝集成。它提供快速应用启动、文件搜索、剪贴板管理等功能。Vector采用设备端模型优化Apple芯片,利用神经引擎实现信息和文件的语义搜索,还集成了日历、天气、计算器和货币转换功能。该应用支持所有搭载Apple芯片的Mac设备,采用按需付费模式,为用户提供比Spotlight更准确快速的搜索体验。
波士顿大学团队发现当今多模态AI存在严重"偏科"问题:面对冲突的文字、视觉、听觉信息时,AI过分依赖文字而忽视真实感官内容。研究团队构建MMA-Bench测试平台,通过创造视听冲突场景暴露了主流AI模型的脆弱性,并提出模态对齐调优方法,将模型准确率从25%提升至80%,为构建更可靠的多模态AI系统提供重要突破。