Instructure与OpenAI合作,在广泛使用的学习平台Canvas中推出IgniteAI工具集。该系统为教师提供AI辅助的作业创建、自动化评分和内容生成功能,学生可在平台内与AI进行个性化学习对话。教师保持完全控制权,可自定义AI行为并审查所有回复。尽管调查显示教育领域在生成式AI采用方面领先,但仍存在算法偏见、数据隐私和学术诚信等担忧。
谷歌周四推出名为"网络指南"的AI驱动搜索功能,这是一项搜索实验室实验,利用AI技术重新组织搜索结果页面,将与搜索查询特定方面相关的页面分组显示。该功能由Gemini提供支持,特别适用于开放式搜索查询,如"如何在日本独自旅行"等复杂问题。用户可选择开启或关闭此功能,未来将扩展到搜索的其他区域。
快手科技和清华大学联合提出了Archer训练方法,通过识别语言中的知识型和推理型词语,对不同类型内容采用差异化约束策略。该方法让1.5B参数的小模型在数学推理和编程任务上达到了与大模型相当的性能,在AIME数学竞赛中准确率提升18%,训练效率比传统方法高8倍以上,为AI训练提供了全新的"小而精"发展路径。
南洋理工大学研究团队开发了名为"视频思维测试"的新基准,通过1000个精心设计的YouTube短视频揭示了AI视频理解的真实水平。测试发现,即使是最强AI模型GPT-4o的正确率也只有36.6%,远低于人类的84.3%。研究指出AI主要存在时空混淆、世界知识缺失和复杂情节理解困难三大问题,为改进AI视频理解能力指明了方向。
清华大学团队开发的StreamVGGT实现了首个实时4D视觉几何重建系统,通过模仿人类视觉的时间因果感知机制,将处理速度提升30倍而精度几乎不变。该技术采用流式处理架构和知识蒸馏训练,为自动驾驶、AR/VR、机器人导航等领域提供了突破性解决方案。
自动驾驶开发商Nuro与豪华电动车制造商Lucid建立合作伙伴关系,获得Uber投资,共同打造机器人出租车新玩家。Nuro从纯配送市场转向授权自动驾驶技术,Lucid负责车辆制造并集成Nuro硬件设计,Uber拥有并运营车辆。该合作计划6年内生产至少2万辆汽车,主打豪华路线。随着行业竞争加剧,成本控制和差异化服务将成为关键因素。
Wayback 0.1正式发布,这是一个新的Wayland显示服务器的首个预览版本。该项目旨在为坚持使用X11的用户提供"足够的Wayland功能来让Xwayland正常工作"。虽然这是预览版本,但对于需求简单的用户来说已经可以日常使用。作为alpha质量软件,仍有许多功能未实现或正在开发中。Wayback能让用户在不需要完整X11服务器的情况下继续使用现有的X11环境,但目前缺少DPMS电源管理、多屏支持等功能。
物理安全是数据中心运营的基石,包括周边入侵检测、视频监控、AI分析、电子门禁和生物识别等。随着数据中心规模扩大,传统安全方法难以适应。AI驱动的分析可将误报率降低70%以上,生物识别技术在高风险环境中日益突出。边缘数据中心需要更模块化的安全框架,支持远程监控和集中管理,确保在无人值守环境下维持安全标准。
三星Galaxy S25系列搭载骁龙8 Elite处理器,AI处理速度提升40%,CPU性能增强37%,图形渲染提升30%。配备40%更大蒸汽腔散热系统,有效防止过热。ProScaler AI图像缩放引擎实时优化视觉效果,游戏模式可定制化设置避免干扰。Audio Eraser功能清理背景噪音,AI电池优化技术延长游戏时间,为移动游戏玩家提供专业级体验。
IBM首席执行官阿尔温德·克里希纳表示,公司预计通过扩大AI业务规模,到2025年底实现45亿美元的内部成本节约。IBM第二季度营收达170亿美元,同比增长8%。生成式AI业务规模已超75亿美元并持续加速增长。尽管外界担心AI业务可能冲击公司其他板块,克里希纳强调AI技术的融入使IBM产品更具竞争力,咨询业务也因客户对AI转型项目的需求而受益。
研究显示,拥有专门AI领导者的企业在AI投资回报率上高出10%,创新表现超越同行的可能性增加24%。高AI成熟度组织中45%的AI项目能运行三年以上,而低成熟度组织仅为20%。尽管如此,许多企业仍采用零散的AI应用方式,缺乏长期战略规划。专家指出,企业需要任命专门的AI负责人,建立成熟的治理流程,将AI从试点阶段推进到规模化执行阶段。
普林斯顿大学研究团队开发出"LLM经济学家"框架,首次让AI学会为虚拟社会制定税收政策。系统包含基于真实人口数据的工人AI和规划者AI两层,通过自然语言交互找到最优经济政策,甚至能模拟民主投票。实验显示AI制定的税收方案接近理论最优解,为AI参与社会治理提供了新路径。
微软研究团队开发了STITCH技术,让AI语音助手首次具备了边说话边思考的能力。该系统巧妙利用语音播放时间进行推理计算,在不增加响应延迟的情况下,将数学推理准确率提升近60%。这项突破模仿了人类自然的认知节奏,为AI交互体验带来质的飞跃,预示着更智能、更自然的人机对话时代即将到来。
斯坦福大学等机构的研究团队通过理论分析和实验验证,揭示了当前AI大模型训练中广泛使用的RLVR技术存在"无形枷锁"现象。研究发现RLVR主要是在基础模型已有知识范围内进行概率重分配,很难真正扩展AI的推理边界,同时在精度提升的代价下可能损失探索多样化解决方案的能力,为未来AI训练方法的改进提供了重要理论指导。
剑桥大学研究团队发布突破性研究,提出通过逆强化学习让AI从人类行为中推断真实意图的新方法。该方法解决了大语言模型训练中的关键挑战,包括缺乏明确奖励信号、计算资源需求巨大等问题。通过观察人类偏好数据而非直接指令,AI能更好地理解复杂的人类价值观,在对话、数学推理等领域表现显著提升。
哈工大团队提出SENTINEL框架,通过句子级早期干预和交叉验证机制,将多模态AI的视觉幻觉率从52.7%降至4.3%,降幅超90%。该方法采用域内数据自举策略,无需外部标注,在保持AI通用能力的同时显著提升了图像描述准确性,为可信AI发展提供重要突破。
这项突破性研究由法国瓦雷奥公司联合荷兰高校团队完成,开发出名为Franca的开源AI视觉模型。该模型仅使用公开数据训练,却在图像分类、物体检测、语义分割等多项任务中达到或超越了谷歌、Meta等科技巨头的私有模型性能。研究团队创新性地引入"套娃式"多层记忆系统和空间偏见消除技术,并完全开源了模型、代码和训练数据,为AI技术民主化做出重要贡献。
西班牙马德里理工大学研究团队开发了全球首个融入能耗意识的AI评估平台——生成式能源竞技场(GEA),通过对694个评估样本的分析发现,当用户了解AI模型能耗信息后,46%的用户会改变原始选择,更节能小模型的获胜率从50%跃升至75%以上,揭示了能耗意识对AI选择的显著影响,为构建可持续AI生态系统提供重要科学依据。
上海交通大学研究团队发现扩散式大语言模型存在严重安全漏洞,其开发的DIJA攻击方法能以接近100%成功率绕过AI安全防护,诱导模型生成危险内容。该攻击利用扩散模型的双向建模和并行解码特性,通过插入掩码标记让AI误以为是填空练习,从而规避安全检查。现有防护措施对此类攻击几乎无效,凸显了新兴AI架构安全评估的紧迫性。
浙江大学和新加坡国立大学联合开发的AutoSteer系统,为多模态大语言模型提供了创新的安全防护机制。该系统通过安全意识评分自动识别AI内部最佳监控点,结合智能毒性检测器和拒绝机制,实现了既强大又安全的AI防护。实验显示,AutoSteer在显著降低攻击成功率的同时,完全保持了AI系统的正常功能,为AI安全领域提供了实用的解决方案。