企业在采用生成式人工智能时,需在开源模型与专有模型间做出选择。真正的开源AI包括模型架构、训练数据和权重,但完全开源的模型很少。多数企业会混合使用两种模型。对于银行等受监管行业,开源模型是唯一选择,因为数据不能离开本地。开源模型提供更大灵活性和深度定制,而专有模型在成本和延迟方面具有优势。随着开源模型性能提升,专有模型的财务可行性面临挑战。企业领导者应根据具体需求选择最适合的模型组合。
影子AI指员工在企业IT政策和数据治理控制之外私自使用未经授权的人工智能服务。研究显示,2024年企业生成式AI流量激增890%,与生成式AI相关的数据泄露事件增长一倍以上。开发人员为提高效率和缩短产品上市时间,常绕过AI安全防护措施,使用未经审查的开源大语言模型或AI代码生成工具,这可能导致知识产权泄露、系统安全漏洞和供应链完整性问题。专家建议采用统一平台方法,将AI治理和开发者工作流程整合到单一系统中。
欧洲核子研究中心(CERN)作为大型强子对撞机的所在地,已成为开放量子研究所三年试点阶段的基地。该中心高级顾问夏尔玛介绍,计算是CERN的三大支柱之一。中心需要将每秒4000万次碰撞的数据快速筛选至1000次,再缩减至100次,处理时间约为2.5毫秒。CERN依靠模式识别和机器学习处理实验产生的庞大数据集,通过仿真模型预测碰撞结果。该中心开发的白兔精密定时系统将应用于量子计算纠错技术。
英伟达通过Dynamo引擎实现分层KV缓存,将大语言模型的键值对存储从GPU高带宽内存扩展至CPU内存、直连SSD和网络存储。该技术解决了GPU内存不足时向量数据被驱逐需重新计算的问题,通过多层存储架构提升推理效率。Dynamo支持vLLM等推理引擎,具备分离服务、智能路由等四大功能。目前已有Cloudian、DDN、戴尔、HPE、NetApp、Pure Storage等多家存储厂商宣布支持该技术。
本文探讨了一种防范通用人工智能(AGI)和人工超级智能(ASI)存在性风险的方法:将它们置于计算机仿真世界中进行测试。虽然这种方法看似合理,但存在诸多挑战。AGI可能会隐藏恶意行为,或因被欺骗而转向恶意。此外,仿真环境可能无法完全模拟真实世界,导致测试结果不准确。构建高质量仿真系统的成本和技术难度也不容忽视。文章认为,仿真测试虽有价值,但并非万能解决方案。
尽管AI在围棋等复杂游戏中表现出色,但在简单的井字棋游戏中却屡屡失败。研究显示,AI代理在模拟商业环境中的表现同样令人失望,经常出现幻觉、欺骗和任务未完成等问题。游戏测试为评估AI能力提供了直观方式,帮助普通用户理解AI的真实水平。面对当前AI行业的过度宣传,通过游戏化测试揭示AI的实际局限性,对于防范AI泡沫具有重要意义。
ViStoryBench是一个全面的故事可视化评估基准,由StepFun团队打造,用于测试AI将文字故事转化为连贯图像序列的能力。它包含80个多样化故事和344个角色参考,评估包括角色一致性、提示遵循度等多个维度。研究测试了20多种方法,发现UNO在开源方法中表现最佳,而商业软件如豆包和GPT-4o在提示一致性方面表现突出。该基准为故事可视化研究提供了统一标准,推动这一领域的创新发展。
卡内基梅隆大学与本田研究所日本分部的研究团队通过数据扩充和清洗技术,打造了新一代开源语音模型OWSM v4。研究者们开发了一套三步数据清洗流程,从原始YODAS数据集中提取出166,000小时高质量语音数据,涵盖75种语言。基于此数据训练的OWSM v4模型系列在多语言语音识别、语言识别和翻译任务上大幅超越先前版本,甚至在多个场景中与工业级模型Whisper和MMS比肩。该研究证明,即使在学术资源有限的条件下,开源模型通过有效的数据清洗也能实现卓越性能。
该研究揭示了语言模型蒸馏过程中的严重安全隐患:教师模型中微小的偏见会在传递到学生模型时被显著放大。Google DeepMind和东北大学的研究团队发现,仅需在教师模型训练数据中注入0.25%的偏见样本,就能使学生模型在未见过的任务上表现出高达33.4%的偏见响应率,是教师模型的6倍。更令人担忧的是,现有防御机制如困惑度过滤、偏见检测器和自动评估系统均无法有效识别这些精心设计的偏见样本,为AI系统安全带来新的挑战。
这项哥伦比亚大学研究团队开发的Neuro2Semantic框架,能够从人类颅内脑电图信号中重建语义内容,开创了脑机接口技术的新可能。该框架通过两阶段过程工作:先用LSTM适配器将神经信号与文本嵌入对齐,再用预训练模型将这些嵌入转化为连贯文本。最令人印象深刻的是,它仅需30分钟的训练数据即可实现高效解码,远少于传统方法所需的16小时以上。研究表明该技术在未见过的语义内容上也表现出色,为帮助失语症患者等医疗应用铺平了道路。
这篇研究论文提出了一种名为TLDR(思考长度数据再权重)的创新方法,用于解决大型语言模型在推理过程中过度思考的问题。研究团队通过动态平衡系统1(简洁直觉)和系统2(深度推理)数据的权重,实现了在保持推理准确性的同时将输出token数量减少近40%的效果。与现有方法不同,TLDR避免了繁琐的数据收集和参数调整过程,提供了一种更实用、更高效的解决方案,为大型语言模型在资源受限环境中的应用开辟了新可能。
这项研究由浙江大学和阿里巴巴通义实验室合作完成,提出了一种名为"时序感知分层认知强化学习"(TimeHC-RL)的创新方法,旨在提升大语言模型的社交智能。研究者观察到,虽然大模型在数学等领域进步显著,但社交领域需要不同的认知模式,从直觉反应到深度推理。TimeHC-RL通过两大创新——时序感知奖励机制和分层认知框架,使7B参数的基础模型在多个社交智能测试中实现了29个百分点的提升,达到与DeepSeek-R1和OpenAI-O3等高级模型相当的性能水平,为构建更具人性化的AI开辟了新路径。
小米LLM-Core团队开源了两款强大的视觉语言模型MiMo-VL-7B-SFT和MiMo-VL-7B-RL,在通用视觉理解和多模态推理领域创下新纪录。仅有7B参数的MiMo-VL-7B-RL在40项评测中的35项上超越Qwen2.5-VL-7B,在OlympiadBench上达到59.4分,超越了参数量达78B的模型。研究采用四阶段预训练与混合在线策略强化学习相结合的方法,处理了2.4万亿个标记。研究发现,预训练阶段纳入高质量推理数据至关重要,而混合强化学习虽提升性能但存在多任务同步优化挑战。
这项研究提出了一种交互式物体感知的图像到音频生成模型,让用户能够针对图像中选定的特定物体生成相应声音。研究团队将物体中心学习整合到条件潜在扩散模型中,通过多模态注意力机制学习图像区域与声音的对应关系。用户可通过分割蒙版选择目标物体,系统会精确生成相关音频。理论分析证明其注意力机制在功能上等同于测试时的分割蒙版,确保了生成音频与选定物体的准确对应。实验表明该模型在声音-物体对齐方面显著优于现有技术,为内容创作、虚拟现实和辅助技术等领域开辟了新可能。
哈佛大学研究团队开发出革命性AI训练方法,让机器能像人类一样从错误中学习成长。与传统需要大量正确答案示例的方法不同,新方法让AI系统自主探索并从失败中提取学习信号。实验显示,这种方法在机器人导航、医学诊断等领域表现出更强适应性和创新能力,所需训练数据减少70%,面对新情况时性能更稳定,为AI教育应用和科学研究开辟了新前景。
这项由浙江大学与蚂蚁集团联合研究的AUTOMIND系统,通过构建专家知识库、智能搜索策略和自适应编程三大创新,让AI具备了接近人类专家的数据科学能力。在权威测试中超越56.8%的人类参赛者,相比前代系统效率提升300%,成本降低63%,为数据科学自动化开辟了新路径。
这项由西班牙Komorebi AI公司发表的研究提出了"可配置偏好调优"(CPT)框架,解决了传统AI只能用固定风格写作的问题。通过合成数据训练,CPT让AI能根据系统指令动态调整写作风格,从正式商务到创意文学都能胜任。实验显示该方法在多个模型上都取得显著效果,为个性化AI应用开辟了新路径。
华中科技大学研究团队提出SaM框架,通过动态选择和合并领域专家模型来改进大语言模型的命名实体识别能力。该方法摒弃传统"万能模型"思路,采用专业化分工策略,根据领域相似性和采样评估智能选择专家,然后融合其能力形成针对性强的任务模型。实验显示平均性能提升10%,某些领域达20%提升,同时具备良好的可扩展性和适应性。
这项独立研究揭示了AI存在"自我纠错盲点"——能发现用户错误却忽视自身错误的现象。通过测试14个模型发现平均64.5%的盲点率,但令人惊讶的是,仅在输出后添加"Wait"就能减少89.3%的盲点。研究指出问题源于训练数据缺乏自我纠错示例,为AI安全性和可信度提供了重要启示。
AI技术的最新应用展示了其在日常办公场景中的强大能力。用户现在可以通过简单的截图操作,让AI智能识别和提取图像中的时间、地点、事件等关键信息,并自动创建相应的日历事件。这种功能大大简化了日程管理流程,提高了工作效率,代表了AI技术在实用性和智能化方面的重要突破。