在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
谷歌在Gemini应用中推出新的检测功能,帮助用户识别图像是否由AI生成。该功能可检测谷歌AI模型自动嵌入的SynthID水印,虽然人眼不可见但能被专用工具识别。用户只需将图像上传至Gemini并询问是否为AI生成,系统就会分析并提示。即使没有发现SynthID水印,Gemini也会尝试分析图像中的AI痕迹。不过该功能仅限检测谷歌AI模型生成的内容。
为加速新电厂建设以满足数据中心能源需求,Meta正寻求进入电力交易业务。据彭博社报道,Meta和微软均已申请联邦电力交易许可,苹果已获得此类批准。Meta表示,这将允许其对新电厂进行长期购电承诺,同时通过在批发电力市场转售部分电力来降低风险。Meta全球负责人表示,电厂开发商希望看到电力消费者的实际承诺。为支持Meta路易斯安那州数据中心园区运营,至少需要建设三座新的燃气发电厂。
研究人员开发出更有效的方法从大型语言模型中提取记忆内容,可帮助解决监管担忧和版权纠纷。该技术名为RECAP,通过智能反馈循环迭代提取特定内容,包含突破模型拒绝回应的组件。在基准测试中,RECAP在文本提取方面比现有最佳方法提升78%,能从《哈利波特》首部小说中提取约3000段文字。这项研究有助于提高AI模型透明度。
在中国,对技术的投资正以前所未有的速度增长,政府对新一代人工智能(AI)发展计划的承诺也十分明确,因此培养生成式AI技能已成为基础设施和运营(I&O)部门的当务之急。
企业IT管理解决方案领军企业Zoho集团旗下子公司ManageEngine日前宣布,其统一服务管理与运维管理平台正式与DeepSeek实现深度整合。
华南师范大学团队开发的GraphTracer框架,通过构建信息依赖图解决多智能体系统高失败率问题。该方法摒弃传统时间序列分析,追踪信息流网络精确定位错误根源,在失败归因准确率上比现有方法提升18.18%,并已开源供实际应用。
杜克大学研究团队通过几何框架分析发现,AI推理过程呈现连续"流动"特征而非离散跳跃。研究表明逻辑结构像河床般调节推理流的速度和方向,即使面对不同语言和领域的内容,相同逻辑结构的任务在AI内部表现出惊人的几何相似性。这一发现颠覆了AI为"随机鹦鹉"的传统认知,证明AI具备真正的逻辑理解能力,为AI可解释性和系统优化开辟新方向。
清华大学研究团队开发了革命性的X-VLA机器人控制模型,通过创新的"软提示"技术实现一个AI模型控制多种不同机器人平台。该模型仅用0.9B参数就在6个仿真环境和3个真实机器人平台上创造最佳性能记录,在布料折叠等复杂任务上达到近100%成功率,展现了通用机器人智能的巨大潜力,为机器人产业发展指明新方向。
MIT等多所顶尖学府联合研究发现,AI基础模型研究中存在严重的"算力鸿沟"现象。通过分析6517篇论文和调研229位研究者,发现计算资源分配极不均衡,谷歌、微软等科技巨头发表论文数量甚至超过多数顶尖大学。研究显示只有16.8%的论文报告GPU使用情况,透明度严重不足。这种资源集中化趋势可能限制学术创新多样性,影响AI研究的健康发展,需要通过共享计算平台、技术优化和政策支持等多方面努力来缓解。
香港大学和快手科技联合开发PhysMaster系统,通过创新的物理编码器让AI视频生成模型学会基本物理规律。该方法采用强化学习训练模式,能从静态图片中提取物理信息指导视频生成,在自由落体等测试中表现优异,效率比同类方法提升70倍,为开发真正理解物理世界的AI系统开辟了新路径。
清华大学和字节跳动Seed联合发布突破性研究OmniVerifier,首次提出"生成式通用验证器"概念,解决AI无法准确检查自身视觉输出的根本问题。该系统具备"火眼金睛"般的能力,能发现并纠正AI在图像生成和视觉分析中的错误,在多项测试中表现超越GPT-4o,为构建更可靠的下一代AI系统奠定基础。
泰国朱拉隆功大学等机构联合研究了游戏AI角色的"去弗兰德化"问题,通过创新的提示技术和模型训练方法,解决了AI角色过度表演与任务执行能力不足的矛盾。研究在国际挑战赛中取得第2名成绩,为创造既有个性又实用的AI伙伴提供了可行方案,对游戏行业和AI应用具有重要意义。
Salesforce AI团队发布Hard2Verify基准,这是首个专门评估AI数学推理验证器能力的测试基准。通过500小时人工标注,基准包含80道顶级数学竞赛题目和1860个详细标注步骤。测试29个验证器后发现,即使最强的验证器在识别前沿AI数学推理错误时表现也不理想,揭示了当前AI验证能力的重大缺陷。
杜克大学和宾夕法尼亚大学的研究团队从理论角度深入分析了Transformer在时间序列预测任务上表现不佳的原因。通过严格的数学推导,他们证明了线性自注意力模型存在结构性的性能劣势,永远无法超越简单线性模型,且采用思维链推理会导致预测性能指数级恶化。这一发现揭示了不同数据类型的本质差异,为时间序列预测方法的选择提供了重要的理论指导。
谢菲尔德大学研究团队通过系统性"拆解"实验发现,AI语言模型的注意力机制并非所有组件都不可或缺。研究证实信息混合是核心要素,而数学计算方式和动态适应能力可适当简化。最重要的发现是混合策略的神奇效应:让标准方法与简化方法交替工作,不仅保持性能还显著提高效率,为开发更经济实用的AI系统开辟了新路径。
Brave Software开始为其AI助手Leo提供可信执行环境(TEE)技术,以增强云端AI服务的隐私保护。目前该功能仅在测试版本中支持DeepSeek V3.1模型。TEE技术能为数据处理提供可验证的机密性和完整性保障,解决传统云端AI模型处理用户请求时数据暴露的隐私风险。该技术采用Intel TDX和Nvidia TEE方案,让用户能够验证服务提供商的隐私承诺,确保AI响应来自声明的模型,未来将扩展支持更多AI模型。