Microsoft和Georgia Tech研究团队开发了SlimMoE技术,能将超大AI模型压缩到原来的10-20%大小而性能基本不变。该技术采用多阶段渐进式压缩,保留所有专家模块但精简内部结构,成功将419亿参数的模型压缩为76亿和38亿参数版本,让原本需要企业级硬件的AI能力可在普通电脑上运行,大大降低了AI技术使用门槛。
麻省大学阿默斯特分校联合MIT等机构提出CommVQ技术,通过创新的交换向量量化方法,将AI模型长文本处理的内存需求降低87.5%,实现2位量化下几乎无损性能,1位量化下仍保持优秀表现,让普通显卡也能运行128K文本长度的大模型,显著降低了先进AI技术的使用门槛。
这项国际合作研究基于巴西圣保罗1400万新生儿数据,运用7种AI算法预测新生儿28天内死亡风险。研究发现LSTM深度学习算法预测准确率高达99%,远超传统机器学习方法的94%。该技术能帮助医生提前识别高危婴儿并采取预防措施,对改善全球新生儿健康状况具有重要意义,特别适用于医疗资源匮乏地区。
华盛顿大学研究团队开发了ConsumerBench测试框架,专门评估个人设备上多AI应用并发运行的性能。研究发现贪婪资源分配导致应用间严重不公平,语音识别等轻量应用被图像生成等重型应用"饿死";静态GPU分区虽然公平但效率低下;模型共享存在配置冲突。该框架为个人设备AI应用优化提供了重要指导。
这项由香港科技大学领导的研究首次建立了大语言模型安全守护栏的系统性评估框架。研究团队对13种主流守护栏进行了全面测试,提出了六维分类体系和SEU三维评估标准,揭示了不同守护栏在安全性、效率和实用性方面的权衡关系,为AI安全防护技术的选择和部署提供了科学指导。
Meta FAIR等机构首次成功将语言模型水印技术应用于自回归图像生成,解决了图像水印领域的关键技术难题——反向循环一致性缺失。通过专门的模型微调和水印同步层,实现了对AI生成图片的可靠来源追踪,准确率接近100%,且不影响图片质量。该技术在多个主流图像生成模型上验证有效,为AI内容监管提供了重要技术支撑。
这项研究提出了Mirage框架,让AI学会像人类一样进行"心理想象"推理。通过生成压缩的潜在视觉标记而非完整图像,该方法在多个空间推理任务上显著超越传统文字推理和图像生成方法,为AI推理能力发展开辟了新路径。
Arelion升级其斯堪的纳维亚网络,连接超大规模数据中心以支持该地区蓬勃发展的AI市场。该网络基于1.6Tbps波长和可扩展400G相干可插拔光学技术,在奥斯陆、斯德哥尔摩和哥本哈根之间构建AI"超级高速公路"。升级将为企业客户提供增强的全球互联网骨干网接入和多样化连接服务。预计2025年第二季度末完成,并计划在2025年剩余时间及2026年继续投资。
CloudBees首席执行官Anuj Kapur表示,AI可能重新测试DevOps的基础假设,但警告不要为追求效率而创建黑盒代码。他指出,一些因担心错失机会而匆忙采用AI生成代码的客户正开始放缓步伐,变得更加谨慎。Kapur认为,将整代软件外包给提示工程将创建非人类生成的黑盒代码,虽然效率高但质量、测试覆盖率和漏洞问题值得担忧。
数据网络安全公司Rubrik宣布收购AI初创公司Predibase,交易金额在1-5亿美元之间。Predibase专注于帮助企业训练和微调开源AI模型。此次收购将使Rubrik用户能够通过Amazon Bedrock、Azure OpenAI和Google Agentspace等平台加速构建AI智能体。这是继Salesforce、Snowflake等公司之后,又一家通过收购来增强AI智能体技术栈的企业。
人工智能平台提供商Aquant推出"检索增强对话"(RAC)新技术,改变大语言模型信息检索和呈现方式。与传统检索增强生成(RAG)一次性提供完整答案不同,RAC采用逐步对话模式,像领域专家一样通过提问填补知识空白,生成定制化解决方案。该技术能整合手册、交易数据、作业历史等多种数据源,在成本、风险和时间之间找到最佳平衡,预计两年内成为AI检索指导的主要机制。
Anthropic今日升级其Artifacts功能,为用户提供与Claude AI模型协作的实时专用工作空间。升级后用户可将AI功能直接嵌入创作中,转化为AI驱动应用。自功能推出以来,数百万用户已创建超5亿个作品,包括生产力应用和教育游戏。新功能支持创建"会思考"的应用,如记忆选择的游戏角色、智能导师等。用户可免费分享创作,任何Claude账户都可访问。
新加坡国立大学团队开发出革命性的"拖拽式"AI技术DnD,能够在几秒钟内直接从文本描述生成大语言模型参数,无需传统耗时的训练过程。该技术在多个任务上表现优异,效率比传统方法提升2500-12000倍,为AI模型的快速定制化应用开辟了全新路径。
网络安全公司Snyk宣布收购瑞士人工智能安全研究公司Invariant Labs,收购金额未公开。Invariant Labs从苏黎世联邦理工学院分拆成立,专注于帮助开发者构建安全可靠的AI代理工具和框架。该公司提供Explorer运行时观察仪表板、Gateway轻量级代理、Guardrails策略引擎等产品,并在工具中毒和模型上下文协议漏洞等新兴AI威胁防护方面处于领先地位。此次收购将推进Snyk保护下一代AI原生应用的使命。
谷歌DeepMind发布新的离线视觉语言行动模型,让机器人无需云端支持即可自主运行。该模型基于Gemini的多模态理解能力,能够完成系鞋带、折衣服等复杂任务。相比之前的混合云端模式,新模型准确性仅略有下降,但大幅提升了响应速度和隐私保护。开发者可通过SDK进行定制化调优,仅需50-100次演示即可适应新任务。
Pure Storage AI基础设施副总裁Par Botes强调,成功应对AI工作负载不仅需要足够的计算和存储资源,更关键的是确保AI训练数据的质量。企业需要捕获、组织、准备和对齐数据,因为数据往往不完整或不适合AI要解决的问题。他建议企业思考数据工程流程,利用数据湖仓对数据进行清理和准备,并建立持续的数据管理discipline。
香港大学团队突破性地解决了AI全景图生成中的拼接难题,提出DreamCube系统,能从单张照片生成包含深度信息的完整360度场景。该研究创新性地引入"多平面同步"技术,让AI同时协调处理立方体六个面,避免传统方法的色差和断裂问题,实现从2D图像到3D场景的快速转换,为VR/AR、游戏开发、建筑设计等领域提供了全新的内容创作工具。
清华大学团队通过创新的"模式感知重排序"技术,解决了AI视频生成中注意力机制计算效率低下的问题。该技术将复杂分散的注意力模式重新整理成规整的块状结构,结合专门设计的稀疏化和量化策略,在保持生成质量的同时将计算速度提升1.9-2.7倍,为AI视频生成的普及应用铺平道路。
哥伦比亚大学研究团队开发出新的AI偏见纠正技术,通过"重排序"方法让人工智能在总结政治观点时保持公正。该方法让AI生成多个版本后择优选择,结合偏好调优训练,显著提升了观点覆盖度和内容准确性,为构建更可信赖的AI系统提供了实用解决方案。
新加坡国立大学Show Lab团队发布Show-o2统一多模态AI模型,首次实现单一系统内文字、图像、视频的理解与生成能力。该研究采用3D因果VAE和双路径融合机制,通过创新的两阶段训练策略,在多项基准测试中超越现有技术,为通用人工智能发展奠定重要基础。