艺术家Es Devlin在牛津窑炉举办了一场独特的AI与地球会议,汇集艺术家、AI研究人员、学者和科技专家,在制作陶器的过程中探讨人工智能伦理问题。参与者用1.6亿年前的侏罗纪黏土制作360个陶器,象征不同观点的容器。会议为牛津大学史瓦茨曼人文中心开幕式做准备,该中心设有AI伦理研究所。讨论涵盖图灵测试、机器人三定律等经典理论,以及AI对地球的影响。德夫林希望通过这种跨界合作,让人们重新审视数字时代的人机关系。
麻省理工学院会议探讨人工智能的发展方向,记者Karen Hao呼吁改变AI发展轨迹,摆脱大规模数据和模型扩张,转向小型任务导向AI。她以AlphaFold为例,强调小规模精准模型的价值。学者Paola Ricaurte强调目标驱动的AI方法重要性。两位演讲者均鼓励公众积极参与AI发展讨论,认为技术轨迹尚未固定,公众干预至关重要。
Grammarly宣布将停用"专家评审"AI功能,该功能此前未经许可使用真实作家身份提供编辑建议。公司产品管理总监表示,经过慎重考虑决定重新设计该功能,让专家真正掌控自己的形象展示方式。CEO在LinkedIn发文道歉,承认产品设计存在缺陷,未来将确保专家可以选择是否参与、如何展示其知识以及控制商业模式。
IEEE标准协会推出CertifAIEd伦理认证项目,包括个人和产品两类认证。个人认证面向有一年以上AI工具使用经验的专业人士,培训内容涵盖AI系统透明度、算法偏见识别与缓解、个人数据保护等。产品认证则评估AI工具是否符合IEEE框架和相关法规要求。该项目基于问责制、隐私、透明度和避免偏见四大支柱,旨在帮助企业确保AI系统的伦理合规性。
随着企业竞相采用AI技术,容易只关注技术本身而忽视更关键的问题:我们应该构建什么?这不是工程决策,而是领导力决策。AI伦理不是简单的合规清单,而是必须从高层开始建模并贯穿整个组织的思维方式。负责任的领导者需要问不同的问题,建立跨部门协作,将信任和诚信置于中心。创建负责任的AI文化需要从教育开始,建立清晰的伦理框架,并提供高管支持。
苏黎世大学的实验显示,AI的说服成功率达到9-18%,而人类平均只有2.7%,AI比人类强6倍。在4个月内,13个AI账号成功说服了上百位Reddit用户改变观点,且没有人识破它们的身份