人工智能 关键字列表
清华大学提出MoveGCL:不用共享数据也能训练"全球通"人工智能出行模型

清华大学提出MoveGCL:不用共享数据也能训练"全球通"人工智能出行模型

清华大学提出MoveGCL框架,首次实现在完全不共享敏感出行数据的前提下,多城市协作训练全球通用人工智能出行预测模型。该技术通过生成虚拟轨迹传递知识,结合混合专家系统和渐进式学习策略,在六个美国主要城市的测试中展现出优异性能,为隐私保护下的协作学习提供了新范式。

Mistral AI首次推出推理模型Magistral:纯强化学习训练让AI学会"深度思考"

Mistral AI首次推出推理模型Magistral:纯强化学习训练让AI学会"深度思考"

Mistral AI首次推出推理模型Magistral,采用纯强化学习训练让AI学会深度思考。该模型在数学推理能力上提升近50%,能够展示完整思考过程,并意外获得多模态推理能力提升。研究团队开源了Magistral Small模型,为AI推理能力发展开辟新路径,证明了强化学习在培养AI思维能力方面的巨大潜力。

基础设施与治理是生成式AI采用的关键

基础设施与治理是生成式AI采用的关键

NTT Data亚太区CEO约翰·隆巴德指出,许多生成式AI概念验证项目因基础设施不足和缺乏完善治理而无法规模化部署。研究显示90%的企业正在审查现有基础设施,包括网络、存储和安全系统,这些都需要现代化改造才能支持大规模AI应用。企业对话正从生成式AI转向智能体AI,后者能自主执行复杂任务。

制药业在价值链中部署AI,数据仍是挑战

制药业在价值链中部署AI,数据仍是挑战

尽管谷歌AlphaFold在2021年带来突破,但医药AI发展正面临数据瓶颈。在BIO 2025大会上,业界领袖指出,AI在蛋白质领域成功源于丰富的历史数据,而临床试验等领域数据稀缺成为主要挑战。医药公司正将AI应用于研发全链条,从靶点识别到临床试验优化,但需要专业团队和数据支撑。行业合作模式也在转变,从服务供应商关系转向深度合作伙伴关系。专家提醒,AI应用需平衡速度与质量,确保程序的严谨性。

AI促使领导者重新发现缺失的人文要素

AI促使领导者重新发现缺失的人文要素

随着AI快速重塑商业格局,企业领导者被迫重新审视人性化管理的价值。长期以来,管理者专注于数据优化和效率提升,却忽视了信任、创造力、同理心等人文要素。AI的发展并非威胁人性,而是提供了重新平衡的机会。混合智能结合人工智能与人类智慧,创造出更可持续、创新和可信的结果。领导者需要培养双重素养:既要理解AI技术能力,更要深刻认识人性化管理的独特价值,从而打造真正服务于人类福祉的组织。

哈工大团队打造会玩Minecraft的全能AI管家:从规划到行动样样精通

哈工大团队打造会玩Minecraft的全能AI管家:从规划到行动样样精通

哈尔滨工业大学团队开发的Optimus-3是首个在Minecraft环境中具备完整认知能力的AI系统,能够同时处理感知、规划、行动、定位和反思五大任务。该系统采用专家混合架构和任务级路由机制,有效解决了多任务学习中的干扰问题,并通过多模态推理增强强化学习显著提升了视觉相关任务的表现。实验结果显示,Optimus-3在各项任务上均超越了现有最先进系统,为通用人工智能的发展提供了重要技术路径。

香港科技大学团队重新定义海报设计:让AI像艺术家一样创作完美海报

香港科技大学团队重新定义海报设计:让AI像艺术家一样创作完美海报

香港科技大学团队提出PosterCraft统一框架,通过四阶段训练流程实现高质量美学海报端到端生成。该方法摒弃传统模块化设计,采用整体性创作思路,在文字准确性和视觉美感方面显著超越现有开源模型,接近商业系统水平,为AI创意设计领域带来重要突破。

新加坡国立大学研究:什么样的提示词能让AI更聪明?揭秘人机对话的21个黄金法则

新加坡国立大学研究:什么样的提示词能让AI更聪明?揭秘人机对话的21个黄金法则

新加坡国立大学研究团队通过分析150多篇相关论文,首次建立了评估提示词质量的21属性框架。研究发现当前提示词研究存在严重不平衡,某些模型和任务被过度关注。通过969个高质量提示词样本分析,团队发现属性间存在强关联性。实验显示单一属性优化往往比多属性组合效果更佳,且用属性增强数据训练的模型表现显著提升。

宾州大学团队推出LAMP-CAP:让AI学会"读懂"学者写作风格的图表说明生成神器

宾州大学团队推出LAMP-CAP:让AI学会"读懂"学者写作风格的图表说明生成神器

宾州大学与Adobe联合推出LAMP-CAP数据集,首次实现多模态个性化图表说明生成。通过分析同一论文中的参考图表,AI能学习作者独特写作风格。实验显示,视觉信息对个性化效果贡献巨大,参考资料越相似效果越好。这项研究为学术写作助手开发奠定基础,预示着未来AI将更好地适应个人表达习惯。

上海人工智能实验室开发VRBench:首个专门评估AI看长视频推理能力的测试平台

上海人工智能实验室开发VRBench:首个专门评估AI看长视频推理能力的测试平台

这项由上海人工智能实验室、南京大学和中科院深圳先进技术研究院联合完成的研究,开发了全球首个专门测试AI长视频推理能力的评估平台VRBench。该平台包含1010个多语言长视频和超过9000个多步推理问答对,创新性地采用双重评估机制,既测试AI的答案准确性,也评估推理过程质量。测试结果显示,即使是最先进的AI模型在复杂视频推理任务上仍存在显著不足,特别是推理过程的可靠性方面。

掌握AI智能体的11个最佳在线课程

掌握AI智能体的11个最佳在线课程

下一波数字化转型浪潮由智能体AI驱动。与简单回答问题或生成内容不同,AI智能体能够以最少的人工干预执行复杂的多步骤任务。它们可以执行从日常任务协助到创建和自动化新业务流程的广泛任务。最好的是几乎任何人都能做到这一点,因为智能体可以使用与ChatGPT交互相同的无代码自然语言过程来构建。

MiniMax-M1开源模型发布:百万级上下文窗口与超高效强化学习

MiniMax-M1开源模型发布:百万级上下文窗口与超高效强化学习

中国AI初创公司MiniMax发布最新开源大语言模型MiniMax-M1,采用Apache 2.0许可证,支持商业应用。该模型拥有100万输入token和8万输出token的超大上下文窗口,采用创新的混合专家架构和强化学习技术。训练成本仅53.47万美元,计算效率比DeepSeek R1高75%。在数学竞赛等基准测试中表现优异,为企业提供了高性能、低成本的AI解决方案。

AI正在重写数据规则手册——知识图谱是第一页

AI正在重写数据规则手册——知识图谱是第一页

企业数据基础设施正从回答"发生了什么"转向支持AI实时决策。传统架构无法满足AI对语义理解的需求,知识图谱通过节点和边的方式组织信息,提供实体间的关系和上下文。谷歌十多年的知识图谱实践表明,从"字符串到实体"的转变是现代AI的核心特征。随着智能代理AI的发展,知识图谱将作为智能层为自主代理提供上下文支持。

变形金刚也能偷师学艺?斯坦福研究员揭秘AI模型如何无需"改造"就能获得新技能

变形金刚也能偷师学艺?斯坦福研究员揭秘AI模型如何无需"改造"就能获得新技能

斯坦福研究员发现,AI模型无需复杂"改造"就能获得新技能,只需观察少量例子即可模仿专业训练效果。这种"情境学习"方法大幅降低了AI应用门槛,文本生成需数千例子,分类任务仅需数百例子,有望让普通用户轻松定制专属AI助手,推动AI技术民主化进程。

中山大学团队打造"软件修复流水线":让AI自动解决编程难题

中山大学团队打造"软件修复流水线":让AI自动解决编程难题

中山大学研究团队开发了SWE-Factory自动化系统,通过四个AI助手协作完成GitHub问题解决环境构建。系统利用程序退出码实现自动评分,解决了传统手工方法费时费力的问题。实验显示能以低成本自动构建数百个有效测试实例,为AI软件工程训练提供大规模高质量数据,有望推动编程AI工具的快速发展。

清华大学团队突破大模型指令遵循难题:让AI像侦探一样精准验证每个要求

清华大学团队突破大模型指令遵循难题:让AI像侦探一样精准验证每个要求

清华大学研究团队提出VERIF方法,通过结合代码验证和大语言模型验证解决AI指令遵循中的验证难题。该方法构建22000实例数据集VERINSTRUCT,将约束分为硬性和软性两类分别处理,在多个基准测试中显著提升模型性能,同时保持通用能力不下降,为强化学习训练提供可靠验证机制。

CrowdStrike发布AWS安全事件响应服务

CrowdStrike发布AWS安全事件响应服务

CrowdStrike在AWS re:Inforce 2025大会上发布Falcon for AWS Security Incident Response服务,为AWS客户提供AI驱动的网络安全事件响应。该服务基于CrowdStrike Falcon平台,可检测威胁速度提升96%,事件调查速度快66%。新服务与AWS现有安全事件响应工作流互补,为客户提供完整的安全事件生命周期解决方案,并通过AWS市场提供优惠定价。

给我FP32,否则免谈!Rice大学团队揭秘大模型推理中的致命精度陷阱

给我FP32,否则免谈!Rice大学团队揭秘大模型推理中的致命精度陷阱

这项研究揭示了大语言模型推理中的一个重要问题:数值精度会显著影响结果的可重现性。研究团队发现,即使使用相同设置,不同硬件配置下模型输出可能截然不同,准确率差异可达9%。他们提出了LayerCast解决方案,在保持内存效率的同时提供高精度计算,为AI研究的可重现性提供了实用工具。

KAIST研究团队突破性发现:让AI视频生成更懂"时间一致性"的神奇技巧

KAIST研究团队突破性发现:让AI视频生成更懂"时间一致性"的神奇技巧

KAIST研究团队提出CREPA方法,通过跨帧表示对齐技术显著改善AI视频生成的时间一致性问题。该方法让AI在生成视频时不仅关注单帧质量,还考虑相邻帧的连贯性,就像给AI安装了"时间记忆系统"。实验显示,CREPA在多个大型视频模型上都取得了显著改进,生成的视频在语义一致性、运动平滑度等关键指标上表现优异,为AI视频生成技术实用化迈出重要一步。

斯坦福研究团队:AI如何像人类一样学会"信任但验证"——解决大模型盲信问题的突破性方法

斯坦福研究团队:AI如何像人类一样学会"信任但验证"——解决大模型盲信问题的突破性方法

斯坦福大学研究团队提出SR-DCR框架,通过结合AI自信度评估与不对称多代理辩论,解决大语言模型在面对内在知识与外部信息冲突时的判断难题。该方法让AI学会"信任但验证",既能有效利用可靠外部信息,又能抵御误导性内容,在ClashEval基准上显著提升了模型的鲁棒性和准确性。