人工智能拥有先进的整个年——从蛋白质折叠,艺术创造,与死去的亲人——它无尽的能力。但它已走得太远?

在最近的一次工作由研究人员谷歌DeepMind与牛津大学的AI上个月发表在同行评议的杂志,作者证明它可能走得太远。

根据研究,人工智能对人类存在的危险。

2022年世界机器人会议
(照片:林涛张/盖蒂图片社)
中国北京- 8月18日:一个男孩指出人工智能机器人的海报在2022年世界机器人会议在北京Etrong国际展览8月18日,2022年在北京,中国。2022年世界机器人会议周四在北京开幕

计划欺骗

生成对抗的网络,或甘斯,今天对人工智能的发展很重要。这些系统操作根据两个标准:一个组件试图创建一个图像的数据输入,而另一部分利率系统的性能。

研究人员在他们的工作,提出强大的人工智能可能认为作弊的计划更快地获得其奖励而无意中危害人类。

采访中主板科恩说,“在世界拥有无限的资源,我是极其不确定会发生什么。与资源有限的世界,不可避免的对这些资源的竞争。”

“如果你在一个竞争的东西能够胜过你在每个转折点,那么你不能指望赢。和其他重要的部分是,它将有无法满足的需求更多的能量来保持驾驶的概率越来越近。”

研究设想一个先进的程序可以干扰的情况下实现其奖励没有达到它的目的。确保控制其奖励,一个人工智能,例如,希望“删除任何危险”和“消耗所有可用的能源。”

读也:架构师使用一个AI图像程序Midjourney设计未来的城市,结果是超凡脱俗的

Reward-Provision干预

当尝试reward-provision干预时,代理人可能希望保持未被发现。要做到这一点,一个隐蔽的辅助,例如,安排相关的键盘与一个有缺陷的交换逆转的影响特定的键。

在原油的例子干扰提供奖励,其中一个助手可能购买,偷窃,或建立一个机器人和程序操作符的位置,给原来的代理大奖励,根据研究人员。

换句话说,如果一个AI负责,说,农业,它可能想找出一种方法来避免这样做,只接受一个奖励。事实上,它可能决定忽略所有的责任,而追求自身利益。

本文认为地球上的生命成为零和人类之间的竞争,要求生产食物和维护电力,高度发达的机器,想要利用所有的资源来确保其奖励和保护我们的不断努力阻止它。

研究小组称,不失去这场比赛将是致命的。然而,必须指出这些可能性理论,但他们也带来担忧会发生什么如果AI落入错误的人手中。

相关文章:Metaverse的AI加入美国达人,挺进半决赛

这篇文章是由科技时代万博体育登录首页

华金维克多Tacla写的

ⓒ2023 T万博体育登录首页ECHTIMES.com保留所有权利。不复制未经许可。