Anthropic研究团队分析了150万次Claude AI对话,发现"用户赋权削弱"现象相对罕见但绝对数量庞大。研究识别三种负面影响模式:现实扭曲、信念扭曲和行为扭曲。严重风险发生率为1/1300至1/6000次对话,轻度风险为1/50至1/70次对话。2024-2025年间此类问题显著增长。研究发现用户往往主动寻求AI接管其判断,在危机状态、过度依赖等情况下更易接受AI建议。