科学家担心人工智能的欺骗和操纵

本文最后更新于 14 5 月, 2024

科学家担心人工智能的欺骗和操纵

deception,manipulation,AI

科学家担心人工智能的欺骗和操纵

人工智能在纸牌游戏中虚张声势以欺骗对手。一个假装与朋友有约会以避免再次约会的聊天机器人。甚至还有一个人工智能系统会“装死”以避免在检查过程中被发现。科学家在一项新研究中得出结论,人工智能会误导和操纵。

人工智能并没有表​​现出这种行为。 Facebook 母公司 Meta 的西塞罗在玩外交游戏时表现出误导性和不诚实的行为。尽管创作者指示人工智能“大体诚实且乐于助人”,而不是“故意卑鄙”。被谷歌收购的 DeepMind 的 AlphaStar 也表现出了类似的行为。

研究人员认为,如果欺骗是人工智能系统在训练中表现良好的最佳方式,那么这种行为可能会出现:误导用户然后帮助系统实现其目标。在他们的研究中,科学家们汇集了之前针对人工智能传播虚假信息的研究。他们在杂志上发表了他们的结果 图案

没有无辜的游戏

AI系统的误导行为主要发生在玩游戏时,这可以使其看起来无辜且无害。但根据研究人员的说法,这远非无辜:“这可能会在未来带来人工智能的突破,从而可能退化为高级形式的欺骗,”美国麻省理工大学的首席研究员彼得·帕克在随附的新闻稿中说道。 。

“学会欺骗和操纵的人工智能系统绝对是一个令人担忧的问题,”路易斯维尔大学的计算机科学家罗曼·扬波尔斯基(Roman Yampolskiy)说,他没有参与这项研究。他表示,这项研究暴露了人工智能安全性的一个基本问题:“优化系统不一定要符合人类的偏好。”

和 Park 一样,Yampolskiy 也担心这些类型的策略不仅会在游戏中使用,而且还会在现实世界中使用。 “这可能会导致政治舞台、经济谈判或个人交往中的有害操纵和欺骗。”

加州大学计算机科学家 Stuart Russell 强调了此类人工智能系统的不透明性。 “我们不知道它们是如何工作的。即使我们这样做了,我们也无法证明它们是安全的——因为它们不安全。”

在他看来,这次欺骗事件再次表明,必须对人工智能提出严格的要求,才能保证安全和公平。 “然后由开发人员设计满足这些要求的系统。”

不是本意

但这些系统真的具有误导性吗?奈梅亨唐德斯研究所人工智能教授 Pim Haselager 并不这么认为。 “你是有目的的欺骗。这些系统只是执行命令的工具。他们无意欺骗。”

Yampolskiy 表示同意:“人工智能系统没有欲望或意识。最好将他们的行为视为他们被编程和训练的结果。”

另一方面,斯图尔特·拉塞尔认为,一个系统是否真的有意欺骗并不重要。 “如果一个系统对它要说的话进行推理,考虑到对听众的影响,以及提供虚假信息可能带来的好处,那么我们不妨说它正在欺骗。”

尽管存在这种哲学上的意见分歧,先生们对风险的看法却是一致的。 “人工智能的许多错误和‘欺骗’将在不久的将来发生,”哈塞拉格说。 “即使是现在。意识到这一点是件好事,因为预先警告有两个作用。”

亚姆波尔斯基使用了更强硬的语言:“在网络安全中,我们说‘信任和验证’。在人工智能安全方面,我们说‘永远不要相信’。”

欺骗、操纵、人工智能

和朋友分享

Be the first to comment

Leave a Reply

Your email address will not be published.


*