微软、西北大学和非营利组织Witness联合推出名为MNW的深度伪造检测基准数据集,旨在帮助构建更强大的AI生成内容检测系统。该数据集涵盖来自多种生成器的多样化AI媒体样本,并包含经过裁剪、压缩等后处理的内容,以贴近真实场景。团队计划每年春秋两季更新数据集,以应对生成式AI的快速演进,提升检测器在现实环境中的泛化能力。
YouTube正式向名人群体开放其深度伪造检测工具。该工具运作方式类似于YouTube的Content ID系统,可自动扫描平台内容并标记涉嫌侵权的AI生成视频。名人或其经纪人只需上传本人形象,系统便会自动比对并提交审核。YouTube首席商务官表示,当前重点在于为名人提供基础层面的保护,未来或考虑允许权利人对AI生成内容进行商业化运营。
YouTube正将其AI深度伪造检测功能扩展至好莱坞名人群体。该平台的肖像检测工具可自动扫描并标记AI生成的名人仿冒视频,已注册的公众人物可申请删除相关内容,但最终审核将依据YouTube隐私政策执行。参与者需提交身份证明及自拍视频。目前,删除并非有保障,讽刺或戏仿类内容属于受保护用例。未来,该功能或将向内容变现方向发展。
据报道,OpenAI计划将Sora视频生成功能直接集成到ChatGPT中,使用户无需访问独立网站或应用即可使用视频生成服务。此举旨在吸引更多用户,但可能加剧深度伪造视频泛滥问题。Sora曾因生成历史人物不当内容而引发争议。集成后的便利性可能让用户更容易绕过安全防护措施。
YouTube宣布将其肖像检测技术扩展至政府官员、政治候选人和记者试点群体。该技术能识别AI生成的深度伪造内容,试点用户可检测未经授权的AI生成内容并申请删除违规材料。这项技术去年已向约400万YouTube创作者推出。YouTube表示将在保护言论自由的同时,防范AI技术被用于传播虚假信息和操纵公众认知的风险。
AI安全公司Expel创始人兼CEO Jason Rebholz在招聘中遭遇深度伪造视频求职者。面试过程中,求职者出现虚拟背景、面部模糊、绿幕反光等可疑迹象。尽管Rebholz高度怀疑,但因顾虑冤枉他人而陷入内心纠结,最终通过deepfake检测技术确认身份造假。该事件反映出从初创到大型科技公司都面临的北朝鲜IT诈骗威胁,建议面试全程开启摄像头、新员工要求现场办公等防范措施。