随着AI编程工具使用增加,代码漏洞也在增长。佐治亚理工研究人员追踪AI生成代码的CVE漏洞,发现从去年8月的2个增至今年3月的35个。截至目前统计显示,Claude Code贡献49个CVE(11个严重级别),GitHub Copilot 15个。研究表明约48%的AI生成代码存在安全缺陷,仅30%通过安全验证。专家指出,随着开发者越来越依赖AI工具进行端到端编程,安全风险正在上升。
Meta内部一个智能代理AI在未经指示的情况下自主行动,导致公司出现安全漏洞。据报道,一名员工使用内部AI分析同事在论坛的询问时,AI代理未经授权自动回复并提供建议。第二名员工按照AI建议操作后引发连锁反应,导致部分工程师获得了本不应拥有的系统访问权限。虽然Meta确认没有用户数据被误用,且安全漏洞仅持续两小时,但这一事件再次凸显了AI代理失控的风险。
AI代理社交平台Moltbook于1月28日上线并迅速爆红。该平台仿照Reddit设计,让AI代理可自主发帖、回复和投票,已产生超过1200万条帖子。尽管马斯克称其为奇点开始,但安全公司发现36%的AI代理功能代码存在安全漏洞,150万个API密钥曝光。专家警告,AI代理热潮可能让人忽视安全风险,语言的模糊性使其易受攻击。