MIT研究人员开发出自适应语言模型(SEAL)框架,让大型语言模型能够持续学习并通过更新自身内部参数进行适应。SEAL教会模型生成自己的训练数据和更新指令,永久吸收新知识并掌握新任务。该框架采用双循环系统和强化学习算法,让模型学会创建个性化学习指南。在知识整合测试中准确率达47%,在少样本学习中成功率达72.5%。这对企业AI应用具有重要意义,特别适用于动态环境中的AI智能体,但仍存在灾难性遗忘等局限性。
中国AI初创公司MiniMax发布最新开源大语言模型MiniMax-M1,采用Apache 2.0许可证,支持商业应用。该模型拥有100万输入token和8万输出token的超大上下文窗口,采用创新的混合专家架构和强化学习技术。训练成本仅53.47万美元,计算效率比DeepSeek R1高75%。在数学竞赛等基准测试中表现优异,为企业提供了高性能、低成本的AI解决方案。
Epoch AI 分析指出,以推理为核心的 AI 模型(如 OpenAI 的 o3)近年来虽取得显著进步,但因强化学习阶段所需的庞大运算和高昂研究成本,未来性能提升可能放缓,预计到2026年将趋向封顶。
本文介绍推理模型如何通过链式推理和多路径探索外部信息,展示其在复杂问题求解中(如数学、规划和动态决策方面)的卓越优势,从而推动生成式 AI 技术向更高水平发展。
人工智能代理能否像90年代的个人电脑一样成为企业运营的基础?专家们正在热议这个问题。尽管AI代理在决策和执行任务方面显示出潜力,但能源消耗、学习效率和数据可靠性等挑战仍然存在。本文探讨了AI代理在商业应用中的价值和准备程度,指出企业需要在追逐热点与战略部署之间做出明智选择。
阿里巴巴旗下的 Qwen 团队推出了 QwQ-32B,这是一款拥有 320 亿参数的推理模型,旨在通过强化学习提升复杂问题解决任务的表现。该模型在 Hugging Face 和 ModelScope 上以开源权重形式发布,适用于商业和研究用途,企业可以立即将其应用于产品和应用程序中。
DeepSeek作为人工智能领域的新兴力量,其快速崛起引发了对AI创新未来、开源主导地位和传统AI商业模式可持续性的讨论。文章探讨了DeepSeek的成功因素,包括其高效的模型设计、创新的训练方法以及开源策略,分析了其对AI行业格局的潜在影响,并探讨了现有AI公司如何应对这一不断变化的局面。
香港大学和加州大学伯克利分校的一项新研究显示,在没有人工标注数据的情况下,语言模型和视觉语言模型能够更好地泛化。这一发现挑战了大型语言模型社区的主流观点,即模型需要手工标注的训练样本。研究表明,过度依赖人工示例反而可能对模型的泛化能力产生负面影响。
AI方案并不是供应链领域的新技术,其中很多要素在某些场景下已经被使用了几十年。只是最近以来,更多新兴案例开始快速涌现。
在AI界,对于如何进一步推动AI的发展,存在两种主要观点。第一种观点认为,计算能力是AI进步的唯一瓶颈。另一种观点却认为,数据才是关键。