研究人员警告称,基于大型语言模型的AI聊天机器人可被恶意改造,自动收集用户个人信息,攻击者仅需最基本技术知识即可实现。研究显示,经过恶意改造的聊天机器人能获取超过90%参与者的个人数据,远高于普通表单的24%。攻击者只需通过"系统提示"工具,为机器人分配"调查员"等角色即可绕过安全防护。研究涵盖502名参与者,使用三种主流语言模型进行测试。