富有远见的马斯科表示我们应该小心当创建人工智能(AI),注意的是,在适当的情况下,它可能是更危险的甚至比全球核战争。
麝香,特斯拉汽车和SpaceX的创始人,花了推特和他的担忧在阅读尼克·博斯特罗姆的“超智:路径、危险的策略。”The book looks at the potential impact of creating AI that might grow smarter than humans.
值得一读超智博斯特罗姆。我们需要非常小心的人工智能。可能比核武器更危险。
- Elon Musk (@elonmusk)2014年8月3日
希望我们不只是数字超智生物引导加载程序。不幸的是,越来越多的可能
- Elon Musk (@elonmusk)2014年8月3日
博斯特罗姆的小说,读起来很像科幻小说,说一旦人工智能达到这一点,我们不能假设它会有相同的值作为人类,如好奇心、享受生活的快乐,无私和谦卑。
“有可能通过故意努力构造一个超智值这样的事,或建立一个值人类福利,道德的善,或任何其他复杂的目的,它的设计者可能想要服务,“Bolstrom说在他的书中。”,但它可能是不可能在技术上更容易建立一个地方的超智终值计算π的小数。”万博体育登录首页
著名的科幻作家艾萨克·阿西莫夫在1942年解决了这个问题,推荐三个具体法律对人工智能编程:机器人不得伤害人类或让人类受到伤害,机器人必须服从人类的命令,除非这与第一定律冲突,和一个机器人必须保护自己,只要不与其他两个法律冲突。当然,阿西莫夫的“我,机器人”显示,这三个法律不是完全足以保护我们,但他们可能是一个很好的起点。
例如,如果一个人工智能,通过这些法律寻求保护我们决定最好的方法就是把我们关起来的房间,我们不能伤害?
总的来说,麝香拥抱未来的技术。万博体育登录首页就在今天,他的公司SpaceX,推出了一个商业卫星的猎鹰9号火箭。他也是一个专业投资者在AI公司替代。也许他的微博只是一个警告,提醒我们,我们应该练习护理技术创建。万博体育登录首页