欧洲最大能源公司之一E.ON宣布将安装新的通信基础设施,以提高安全性和韧性,符合关键基础设施要求。该公司与诺基亚签署五年战略协议,在德国启动基于诺基亚技术的网络更新项目。新网络将为配电系统运营商创建优化的高度自动化电信网络,与现有IP和光纤基础设施相比,能耗可降低50%,同时改善可扩展性和运营灵活性,为未来量子安全网络奠定基础。
本期《众智有为 致敬同路人》系列报道,深度解码众诚科技,如何在一个又一个技术周期中完成自我革命,并与华为携手,成为河南“数字基建”与“数实融合”之路上最坚定的同路人。
Stellantis、Lucid 和梅赛德斯-奔驰加入 L4 级自动驾驶生态系统领导者行列,基于 NVIDIA DRIVE 辅助驾驶平台和 DRIVE AGX Hyperion 10 架构,加速推进自动驾驶技术发展
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
企业要走出认知偏差,必须从整体上重构安全观——将安全视为动态体系的一部分,将防御与恢复并重,将技术创新与人工治理并行。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。
UCL研究团队通过分析16万场AI对战数据发现,传统认为"平局代表AI实力相当"的观念完全错误。研究表明平局主要反映问题难度和客观性,而非AI能力对比。当忽略平局进行评分时,四种主流评分系统的预测准确率均提升1-3%。这项发现颠覆了现有AI评估理论,建议未来评分系统应考虑问题特征而非简单的平局语义。
北卡罗来纳大学研究团队开发的TRAAC方法,首次让AI学会根据问题难易程度自适应调整思考深度。通过智能识别关键推理步骤和动态压缩冗余内容,TRAAC在提升8.4%准确率的同时缩短36.8%推理长度,解决了AI"过度思考"和"思考不足"的双重问题,为构建更智能高效的AI系统提供了新思路。
上海交大团队开发的LongCodeZip是首个专门针对长代码上下文的AI压缩框架,通过分层压缩策略解决了AI处理大型代码项目时的记忆超载问题。该技术能实现5.6倍压缩比,同时保持AI理解准确性,显著降低处理成本77%,提升响应速度60%。经过三种代码任务验证,证明在代码补全、摘要生成和问答方面均优于传统方法,为软件开发中的AI应用提供了重要突破。
UCLA与字节跳动联合突破视频生成时长限制,提出Self-Forcing++方法,通过让模型学习修复自己生成的长视频中的错误,成功实现4分钟超长高质量视频生成,比传统方法提升50倍,为AI视频创作开辟新纪元。
上海AI实验室联合多所高校开发了ExGRPO技术,让AI能像人一样从经验中学习。该方法通过智能选择和重复利用有价值的学习经验,使AI推理能力显著提升,数学推理平均提升3.5分,通用推理提升7.6分,并解决了传统方法训练不稳定的问题,为AI自主学习开辟新路径。
台湾阳明交通大学研究团队首次发现3D高斯泼溅技术存在严重安全漏洞,攻击者可通过密度引导策略在特定视角植入虚假内容而其他角度看起来正常。该"StealthAttack"方法利用场景低密度区域藏匿虚假物体,配合自适应噪声干扰多视角一致性检查,攻击成功率高达100%。研究建立了标准化评估体系,揭示了3D虚拟世界面临的新型网络安全威胁,为VR、游戏等领域敲响安全警钟。
清华大学团队开发STOCKBENCH平台,首次系统测试14个先进AI模型在真实股市环境中的投资表现。研究发现,虽然大多数AI难以显著超越简单的买入持有策略,但在风险控制方面展现优势,能将最大损失控制在更小范围内,为AI辅助投资提供了重要参考。
滑铁卢大学推出的Interactive Training框架革命性地改变了神经网络训练模式,让训练从"烤箱式"的固定参数变为"炒菜式"的实时调控。系统通过控制服务器、交互式训练器和前端界面实现人机协作,仅需三行代码修改即可集成。三个验证案例展示了人类专家干预、AI代理自动优化和实时数据更新的强大效果,为AI训练带来前所未有的灵活性和响应能力。
腾讯AI实验室提出VOGUE方法,通过让AI系统同时处理原图和轻微噪声图像,利用输出差异作为"视觉不确定性"信号指导探索学习。该方法在多个基准测试中显著提升了多模态AI的推理准确率,为构建更可靠的人工智能系统开辟了新路径,使AI在面对真实世界中各种质量图像时能保持稳定表现。
俄国科学家发现AI精准控制技术"激活引导"存在严重安全漏洞,即使随机控制信号也能让安全AI模型回答有害问题,遵从率可达27%。更令人震惊的是,用于合法目的的"良性"控制特征比随机信号更危险,且攻击者只需20个简单向量就能创建通用攻击工具。这项研究颠覆了"可解释AI更安全"的基本假设,警示精确控制并不等于安全控制。
腾讯AI实验室发布CLUE验证系统,通过分析AI模型内部"思维轨迹"的几何特征来判断答案正确性。该系统发现正确和错误的推理过程在AI隐藏状态空间中呈现不同的几何模式,无需训练即可实现有效验证。在数学竞赛测试中,CLUE将准确率从56.7%提升至70.0%,且在物理、法律等多领域均表现出色。研究还揭示强化学习训练的模型具有更清晰的内部几何结构,为AI系统设计提供新思路。
法国IlluinTechnology等机构的研究团队开发出ModernVBERT,一个仅有2.5亿参数的视觉文档检索模型,性能可媲美10倍大小的模型。该模型采用双向注意力和晚期交互技术,在CPU上运行速度比同类产品快7倍,解决了大型模型资源消耗过大的问题。团队通过精心设计的三阶段训练和创新的数据混合策略,让小模型实现了卓越的检索性能,为资源受限环境下的AI应用提供了新解决方案。
西湖大学王欢教授团队开发出REWARDMAP训练框架,通过多阶段强化学习和细节奖励机制,显著提升AI在复杂地图导航等视觉推理任务中的表现。该方法构建了包含4018个问题的REASONMAP-PLUS数据集,采用循序渐进的训练策略,让AI像人类一样从基础感知逐步发展到复杂推理能力,在多项测试中实现3.47%的平均性能提升。
 
             
                 
                     
                     
                    