深圳大学、腾讯等机构联合提出ReDit方法,通过在离散奖励信号中添加随机噪音解决AI训练中的梯度不稳定问题。该方法将学习速度提升约10倍,在数学推理等任务上显著改善模型性能,为大语言模型训练提供了简洁高效的优化方案。
Genspark推出超级智能体,将"氛围编程"概念扩展至企业工作流程,实现"氛围工作"模式。该系统采用9个大语言模型的专家混合架构,配备80多种工具和10多个数据集,通过规划-执行-观察-回溯循环运行。系统能自主处理复杂业务任务,甚至代替用户拨打电话。45天内实现3600万美元年收入,展现了自主智能体平台的商业可行性,挑战传统企业AI架构理念。
医疗保健已成为AI应用的热点领域,在疾病诊断、康复监测和新药开发方面证明了其价值。然而,行业仍面临临床人员短缺、人口老龄化等挑战。AI智能体作为下一波AI变革浪潮,相比现有AI工具,能够执行更复杂的任务并减少人工干预。它们不仅能被动提供信息,还能主动采取行动,如自动分诊调度、辅助临床决策、远程患者监护等,有望在十年内彻底改变医疗服务的提供、管理和体验方式。
Meta宣布为WhatsApp推出AI驱动的消息摘要功能,可自动总结聊天中的未读消息,且仅用户本人可见。该功能采用私有处理技术,确保Meta AI在不影响加密和用户隐私的前提下生成摘要。目前该功能率先在美国推出英语版本,今年晚些时候将扩展到更多国家和语言。用户可通过设置中的私有处理选项管理相关AI功能。
非营利组织Creative Commons宣布推出CC信号项目,允许数据集持有者详细说明其内容如何被机器重复使用,特别是在AI模型训练方面。该项目旨在平衡互联网开放性与AI对数据需求之间的关系,为数据控制者和AI训练者提供法律技术解决方案。目前项目处于早期设计阶段,计划2025年11月进行内测。
Google正式向开发者推出Gemini CLI工具,该工具可直接在终端中使用Gemini人工智能功能。开发者可通过命令行界面快速访问Gemini的各项AI能力,包括代码生成、问题解答和文本处理等功能,极大提升开发效率和工作流程的便利性。
北京大学和百度VIS联合研发的MV-AR技术,首次让AI学会像人类一样逐步观察物体,通过自回归方式生成多视角一致图像。该技术解决了传统方法在处理大视角差异时的一致性问题,支持文字、图像、形状等多种输入,在3D内容创作、机器人视觉等领域具有广阔应用前景。
Microsoft和Georgia Tech研究团队开发了SlimMoE技术,能将超大AI模型压缩到原来的10-20%大小而性能基本不变。该技术采用多阶段渐进式压缩,保留所有专家模块但精简内部结构,成功将419亿参数的模型压缩为76亿和38亿参数版本,让原本需要企业级硬件的AI能力可在普通电脑上运行,大大降低了AI技术使用门槛。
这项由上海人工智能实验室等机构联合完成的研究开发了MICS方法和Chiron-o1模型,通过导师-学员协作机制自动生成高质量医疗推理数据,让AI能像专家医生一样进行逐步分析和推理,在多个医疗基准测试中达到最先进性能,为医疗AI从"黑箱"诊断向可解释推理的转变提供了重要技术路径。
麻省大学阿默斯特分校联合MIT等机构提出CommVQ技术,通过创新的交换向量量化方法,将AI模型长文本处理的内存需求降低87.5%,实现2位量化下几乎无损性能,1位量化下仍保持优秀表现,让普通显卡也能运行128K文本长度的大模型,显著降低了先进AI技术的使用门槛。
伦敦大学学院研究团队提出FaithfulSAE方法,通过让AI模型用自生成数据训练稀疏自编码器,解决传统方法中的"虚假特征"问题。实验证明该方法在多个模型上显著提高了特征提取的稳定性和可靠性,为AI可解释性研究提供了新思路。
这项国际合作研究基于巴西圣保罗1400万新生儿数据,运用7种AI算法预测新生儿28天内死亡风险。研究发现LSTM深度学习算法预测准确率高达99%,远超传统机器学习方法的94%。该技术能帮助医生提前识别高危婴儿并采取预防措施,对改善全球新生儿健康状况具有重要意义,特别适用于医疗资源匮乏地区。
挪威奥斯陆大学联合国际团队开发出首个AI代码"指纹识别"系统CodeT5-Authorship,能以97.56%准确率识别C代码的AI生成来源。研究基于32000个代码样本训练,涵盖八大主流AI模型,在二元和多元识别任务中均表现卓越。该技术为学术诚信监督、代码安全评估和数字取证提供了重要工具,标志着AI内容溯源领域的重大突破。
微软研究团队开发了LettinGo框架,通过让AI用自然语言生成用户画像来改进推荐系统。该方法分三步:多模型探索生成多样化用户档案,通过实际推荐效果评估档案质量,最后用偏好对齐技术训练专门的档案生成器。在三个主要数据集上的实验显示,相比传统方法平均准确率提升20个百分点,且生成的档案更灵活、可解释性更强。
华盛顿大学研究团队开发了ConsumerBench测试框架,专门评估个人设备上多AI应用并发运行的性能。研究发现贪婪资源分配导致应用间严重不公平,语音识别等轻量应用被图像生成等重型应用"饿死";静态GPU分区虽然公平但效率低下;模型共享存在配置冲突。该框架为个人设备AI应用优化提供了重要指导。
这项由香港科技大学领导的研究首次建立了大语言模型安全守护栏的系统性评估框架。研究团队对13种主流守护栏进行了全面测试,提出了六维分类体系和SEU三维评估标准,揭示了不同守护栏在安全性、效率和实用性方面的权衡关系,为AI安全防护技术的选择和部署提供了科学指导。
南加州大学研究团队开发出一种名为PILS的新技术,能够通过分析AI模型输出时的概率信息来破解隐藏的系统指令。这种方法通过观察AI生成文本过程中多个步骤的"思考轨迹",将隐藏提示的恢复成功率提高了2-3.5倍。研究发现AI模型的概率输出存在于低维空间中,可以用数学方法进行压缩和逆向分析。这项发现对AI安全具有重要影响,揭示了当前依赖隐藏指令的安全机制可能存在漏洞,为AI安全防护提出了新挑战。
Meta FAIR等机构首次成功将语言模型水印技术应用于自回归图像生成,解决了图像水印领域的关键技术难题——反向循环一致性缺失。通过专门的模型微调和水印同步层,实现了对AI生成图片的可靠来源追踪,准确率接近100%,且不影响图片质量。该技术在多个主流图像生成模型上验证有效,为AI内容监管提供了重要技术支撑。
这项研究提出了Mirage框架,让AI学会像人类一样进行"心理想象"推理。通过生成压缩的潜在视觉标记而非完整图像,该方法在多个空间推理任务上显著超越传统文字推理和图像生成方法,为AI推理能力发展开辟了新路径。