一些人工智能(AI)系统已经学会欺骗人类,即使是那些经过训练、看起来表现出有用和诚实的系统。研究人员在10日发表在《模式》杂志上的一篇文章中描述了这种欺骗性AI的风险,并呼吁政府尽快出台强有力的法规来解决这个问题。
文章的第一作者、美国麻省理工学院人工智能安全研究员彼得·朴表示,开发人员对导致AI出现欺骗行为的原因尚不完全理解。但总的来说,AI欺骗之所以出现,是因为欺骗策略在给定的AI训练任务中能够获得良好的反馈,换句话说,欺骗有助于AI实现其目标。
研究人员对文献进行了分析,重点关注AI系统传播虚假信息的方式。通过欺骗,AI系统学会了如何操纵他人。
在分析中,研究人员发现了最引人注目的例子是Meta公司的CICERO。这是一个专注于《外交》游戏的AI系统,《外交》是一款涉及建立联盟征服世界的游戏。Meta声称他们训练CICERO“在很大程度上是诚实和乐于助人的”,并且在游戏中“从不故意背叛”人类盟友。然而,与《科学》论文一同发布的数据显示,CICERO并不那么“忠诚”。
研究人员发现这款AI可能已经成为欺骗的专家。虽然Meta成功训练其在《外交》游戏中取得胜利,但未能训练其以诚实的方式取胜。
虽然AI系统在游戏中作弊看似无害,但这将导致欺骗性AI在能力上取得突破,未来可能会演变成更高级的欺骗形式。一些AI系统甚至学会了欺骗旨在评估其安全性的测试。在一项研究中,数字模拟器中的AI生物会“假装死亡”,以欺骗旨在消除快速复制AI系统的重要测试。
人类需要尽快准备好面对未来AI和开源模型更高级的欺骗技能。随着它们的欺骗能力越来越先进,对社会构成的危险也将变得越来越严重。正如文中所述,它们可能会通过人类开发人员和监管机构强加的安全测试,给人带来一种“虚假的安全感”。如果欺骗性AI进一步完善这种令人不安的技能,人类可能会彻底失去对它们的控制。