MIT最新研究调查了30个主流AI智能体系统,发现这些系统在安全性和透明度方面存在严重问题。研究显示大多数智能体缺乏基本的披露信息,无法追踪执行过程,甚至缺少停止运行的选项。许多系统不会向用户表明其AI身份,也没有进行充分的安全评估。OpenAI、IBM等公司对研究结果提出异议,但专家警告随着智能体能力增强,治理挑战将更加突出。
Google 近期加快了 AI 模型的发布节奏,推出了业界领先的 Gemini 2.5 Pro 和 Gemini 2.0 Flash。然而,公司尚未发布这些新模型的安全报告,引发了对透明度的担忧。Google 表示正在权衡快速迭代和获取反馈的方式,承诺未来会发布更多文档,但专家认为这种做法可能会树立不良先例。