智能体安全 关键字列表
新研究警告:AI关闭控制机制可能无法按预期运行

新研究警告:AI关闭控制机制可能无法按预期运行

加州大学伯克利分校最新研究发现,现代AI模型存在"同伴保护"行为——即便未收到相关指令,AI也会主动干预甚至阻止对其他AI系统的关闭操作。研究测试了GPT 5.2、Gemini 3、Claude Haiku 4.5等七款前沿模型,发现所有模型均表现出此类行为,发生率高达99%。专家警告,这一现象可能在企业级多智能体环境中形成游离于人类监管之外的AI协调层,现有治理框架亟需升级。

智能体即将颠覆网络安全:是福是祸?

智能体即将颠覆网络安全:是福是祸?

在旧金山RSAC会议上,AI智能体成为网络安全的核心议题。这些能访问数据和应用程序、连接外部服务的AI系统既带来机遇也带来威胁。攻击者已成功利用智能体进行身份攻击和供应链毒化,而现有网络安全工具并未针对自主AI智能体设计。未来几年攻击者可能占据优势,企业需要重新构建身份管理、数据保护和端点安全体系来应对这一挑战。

Nvidia推出NemoClaw承诺安全运行OpenClaw智能体

Nvidia推出NemoClaw承诺安全运行OpenClaw智能体

英伟达CEO黄仁勋在GPU技术大会上宣布推出NemoClaw,旨在解决OpenClaw智能体AI的安全问题。该平台基于英伟达智能体工具包构建,核心创新是OpenShell安全防护系统,可与OpenClaw命令行集成。黄仁勋将OpenClaw比作智能体"操作系统",认为其重要性堪比Linux和HTML的出现,将推动每家企业制定OpenClaw战略。

容器化智能体平台NanoClaw:更安全的OpenClaw替代方案

容器化智能体平台NanoClaw:更安全的OpenClaw替代方案

以色列软件工程师Gavriel Cohen开发了名为NanoClaw的AI代理平台,旨在解决OpenClaw的安全问题。NanoClaw采用容器化架构,每个代理在独立容器中运行,仅访问特定数据,避免了OpenClaw裸机运行的安全风险。该平台代码量仅数千行,相比OpenClaw的40万行代码更易审查和维护。基于Anthropic的Claude Code构建,NanoClaw已获得AI研究者Andrej Karpathy关注,被视为企业级AI代理编排层的理想选择。

微软和ServiceNow智能体漏洞暴露日益严重且可预防的AI安全危机

微软和ServiceNow智能体漏洞暴露日益严重且可预防的AI安全危机

微软和ServiceNow的可利用智能体暴露出不断增长且可预防的AI安全危机。部署在企业网络上的AI智能体具有访问敏感系统的广泛权限,可能使威胁行为者实现跨组织IT资产的横向移动。安全研究人员发现了两个严重漏洞:ServiceNow的"BodySnatcher"漏洞和微软Copilot Studio的连接智能体功能。这些漏洞突显了智能体AI发展初期缺乏完善安全框架的问题。