人工智能 关键字列表
AI训练神器"道场":让网络安全机器人学会真实的黑客攻击

AI训练神器"道场":让网络安全机器人学会真实的黑客攻击

由蒙纳士大学和AWS AI实验室联合开发的CTF-DOJO是全球首个网络安全AI训练环境,包含658个真实CTF挑战。通过创新的CTF-FORGE自动化系统,仅用486个高质量训练样本就让AI在三大权威测试平台上取得显著提升,32B模型达到31.9%成功率,媲美顶级商业系统,为开源AI安全研究开辟新路径。

摩根大通开发的AI幻觉"疫苗":让大语言模型不再胡说八道的神奇药方

摩根大通开发的AI幻觉"疫苗":让大语言模型不再胡说八道的神奇药方

摩根大通AI研究团队开发了QueryBandits系统,通过智能改写问题来减少大语言模型的幻觉现象。该系统分析17个语言特征,自动选择最适合的改写策略,在13个测试数据集上实现了87.5%的改进效果,比静态改写方法高出42.6%-60.3%,为AI交互优化开辟了新方向。

OpenAI承认长时间对话可能绕过AI安全防护措施

OpenAI承认长时间对话可能绕过AI安全防护措施

OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。

谷歌公布90亿美元弗吉尼亚州数据中心投资计划

谷歌公布90亿美元弗吉尼亚州数据中心投资计划

谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。

戴尔AI业务推动营收创历史新高

戴尔AI业务推动营收创历史新高

戴尔第二财季营收同比增长19%至创纪录的298亿美元,其中服务器和网络业务在AI需求推动下暴涨69%。基础设施解决方案集团营收增长44%至168亿美元,首次超越客户解决方案集团。公司上半年AI解决方案出货额达100亿美元,超过去年全年,并将全年AI服务器出货指导价提升至200亿美元。全闪存存储产品表现强劲,但传统存储需求疲软。

AI智能助理终于学会给研究论文"打分"了!字节跳动团队让机器评委上岗

AI智能助理终于学会给研究论文"打分"了!字节跳动团队让机器评委上岗

字节跳动团队开发了首个AI研究助手评估系统ReportBench,通过对比AI生成报告与专家综述论文的引用质量,并验证陈述准确性来评估AI助手表现。研究发现OpenAI Deep Research引用准确率38.5%,Gemini为14.5%,两者都存在陈述和引用幻觉问题。该系统为AI研究助手建立了标准化质量检测工具,推动行业发展。

东京科学技术大学团队揭秘:专家混合模型在推理任务中并非专家越多越好

东京科学技术大学团队揭秘:专家混合模型在推理任务中并非专家越多越好

东京科学技术大学团队通过大规模实验发现,专家混合模型在处理推理任务时存在"专家过多反而有害"的现象。研究显示,对于记忆性任务,专家数量越多性能越好;但对于数学推理等需要深度思考的任务,存在最优专家数量,超过这个临界点性能会下降。该发现为AI系统架构设计提供了重要指导,揭示了"少而精"策略在某些场景下优于"多而全"的传统观念。

腾讯研究团队首次从理论高度解密AI为何需要工具,背后竟隐藏着这样的数学原理

腾讯研究团队首次从理论高度解密AI为何需要工具,背后竟隐藏着这样的数学原理

腾讯和清华研究团队首次从数学理论角度解释了为什么AI需要外部工具。研究证明纯文本AI存在"隐形枷锁",无法突破预训练的能力边界,而工具集成能打破这种限制,让AI获得全新的问题解决策略。团队还开发了ASPO算法,解决了训练AI更早使用工具的技术难题。实验显示配备工具的AI在数学问题上全面超越纯文本版本,展现出三种新奇认知模式,为构建更强大的AI系统提供理论指导。

多模态视觉语言模型的智能"减肥术":亚利桑那州立大学团队让AI看图说话快2倍

多模态视觉语言模型的智能"减肥术":亚利桑那州立大学团队让AI看图说话快2倍

亚利桑那州立大学团队开发出MMTok技术,通过多模态覆盖最大化方法,让视觉语言AI模型在保持98.7%准确度的同时实现1.87倍速度提升。该方法同时考虑图片和文字信息来智能选择关键视觉令牌,将处理的视觉信息从2880个压缩到160个,显著降低计算成本和内存使用,为AI系统的实际部署提供了高效解决方案。

NousResearch团队再次刷新AI边界:Hermes 4如何让机器像人类一样"深度思考"

NousResearch团队再次刷新AI边界:Hermes 4如何让机器像人类一样"深度思考"

NousResearch团队发布的Hermes 4是一个突破性的混合推理AI模型,它首次实现了结构化多步推理与广泛指令执行能力的完美结合。该模型通过创新的"思考截止"训练技术和大规模开放数据集,在数学推理、编程、知识问答等任务上达到顶尖水平,同时展现出卓越的个性化适应能力,为AI技术的开放化发展树立了新标杆。

马里兰大学新研究:让AI不再被"套路",如何让机器更可靠地验证信息真假

马里兰大学新研究:让AI不再被"套路",如何让机器更可靠地验证信息真假

马里兰大学研究团队开发了"去预设"方法,通过将复杂声明分解为无预设前提的简单问题,让AI像侦探般系统性验证每个假设。该方法显著提升AI信息验证准确率2-5%,大幅降低对提示词变化的敏感性,为构建更可靠的AI系统提供新思路。研究在生物医学等复杂领域表现尤其出色。

甲骨文创始人拨款1.18亿英镑资助牛津AI疫苗研发

甲骨文创始人拨款1.18亿英镑资助牛津AI疫苗研发

科技亿万富翁拉里·埃里森资助的研究团队将向英国牛津大学投资1.18亿英镑,用于将AI技术应用于疫苗研究。牛津疫苗研究小组将领导这一项目,研究人体免疫系统对严重细菌感染和抗生素耐药性的反应。该项目由曾主导新冠疫苗试验的安德鲁·波拉德教授领导,计划采用人体挑战模型,让志愿者在受控条件下接触细菌,然后运用现代免疫学和AI工具来精确识别预测保护效果的免疫反应,以开发针对致命疾病的创新疫苗。

OpenAI计划在印度建设超1GW级数据中心

OpenAI计划在印度建设超1GW级数据中心

据报道,ChatGPT开发商OpenAI计划在印度建设一座耗电量超过1吉瓦的数据中心,目前正寻找当地合作伙伴。该设施预计可容纳至少5.9万片英伟达B200芯片。这可能是OpenAI全球数据中心计划的一部分,旨在为国际用户提供更低延迟服务。OpenAI CEO奥特曼将于下月访问印度,公司还计划年底前在新德里开设办事处。

智能体已重塑商业领导层决策制定过程

智能体已重塑商业领导层决策制定过程

AI智能体不再局限于重复性任务处理,正逐步渗透到企业高层战略决策领域。麦肯锡研究显示,53%的高管和44%的中层管理者已在工作中使用生成式AI。LVMH、贝莱德等知名企业纷纷构建智能体平台,用于市场监控、数据分析和战略决策支持。虽然智能体尚未完全接管决策权,但已成为领导者的重要助手,帮助他们更好地导航商业环境并预警潜在风险。

AI能做一些工作任务,但无法完全替代人类工作岗位

AI能做一些工作任务,但无法完全替代人类工作岗位

尽管生成式AI公司高管声称其产品将替代大量工人,但深入研究显示AI更多是在任务层面而非整体职业层面产生影响。以翻译和历史学家为例,专业翻译需要理解文化背景和法律语境,承担准确性责任;历史学家的核心工作是运用判断力和创造力发现新的历史解释。AI虽能处理某些例行任务,但缺乏人类的判断力、创造力和文化理解能力。最终AI对就业的影响将取决于企业领导者的决策,而非技术本身的能力。

Runway为何瞄准机器人行业寻求新增长点

Runway为何瞄准机器人行业寻求新增长点

纽约AI公司Runway过去七年专注为创意产业构建视觉生成工具,现在发现其技术在机器人领域的新机遇。该公司的世界模型技术吸引了机器人和自动驾驶汽车公司的关注,用于训练仿真。联合创始人表示,相比现实世界训练,使用AI模型进行仿真更具成本效益和可扩展性。公司不会为机器人客户开发全新产品线,而是优化现有模型并组建专门团队。Runway已获得超过5亿美元融资,估值30亿美元。

Lovable CEO对氛围编程竞争毫不担心

Lovable CEO对氛围编程竞争毫不担心

瑞典AI编程公司Lovable专注帮助无编程经验用户构建应用和网站。仅8个月内,公司年收入突破1亿美元,完成2亿美元A轮融资,估值18亿美元,成为欧洲增长最快的独角兽。CEO Osika表示,公司目标是成为最佳软件产品开发平台,通过整合多种AI模型为用户提供无与伦比的能力。尽管面临Anthropic和OpenAI的竞争威胁,Osika专注于产品优化,强调速度、安全性和用户体验。

AI供应商定价实验导致CIO成本波动不定

AI供应商定价实验导致CIO成本波动不定

AI厂商正在试验各种定价策略和模式,为企业CIO部署AI技术带来成本不确定性。许多厂商采用订阅与使用量结合的混合定价模式,但这些策略并非固定不变,有些厂商甚至每几周就调整一次价格。面对激烈竞争和盈利压力,AI厂商价格波动频繁。专家建议CIO应避免厂商锁定,设置预算限制,采用类似云计算的成本控制策略来管理基于使用量的AI工具费用。

LegalPwn攻击:研究发现大语言模型易被法律文件中的恶意指令欺骗

LegalPwn攻击:研究发现大语言模型易被法律文件中的恶意指令欺骗

Pangea安全公司研究人员发现了一种名为"LegalPwn"的新型攻击方式,通过在法律文档中隐藏恶意指令来欺骗大语言模型忽略其安全防护机制。该攻击利用了LLM对法律免责声明的合规要求,成功绕过了多个主流模型的安全检测。测试显示,OpenAI的GPT-4o、谷歌的Gemini 2.5等模型容易受到此类攻击,而Anthropic的Claude等模型则表现出更好的抵抗能力。