霍金、马斯克为人工智能立23条军规,不得伤害人类! 著名科幻作家阿西莫夫在其作品中为机器人制定了三大法则,已经超越科幻成为人们心目中机器人应该遵守的不二法则。随着人工智能的迅猛发展,机器在未来几十年内可能会达到人类的智能水平,已被许多科学家认为是不可避免的趋势。一旦达到这一点,机器人就可以改造自己,并创建其它同类,甚至制造出被称为超级智能的更强大AI。如何确保机器人为人类利益服务,而不是像电影《终结者》里一样,将人类文明终结,已经不再是科幻作品里的纸上谈兵,而是必须纳入议事日程的重要课题。 2017年1月,在加利福尼亚州阿西洛马举行的Beneficial AI会议上,特斯拉CEO埃隆·马斯克、DeepMind创始人戴米斯·哈萨比斯以及近千名人工智能和机器人领域的专家,联合签署了阿西洛马人工智 能23条原则,呼吁全世界在发展人工智能的同时严格遵守这些原则,共同保障人类未来的利益和安全。著名物理学家霍金和马斯克在本周公开声明支持这一系列原则,以确保拥有自主意识的机器保持安全,并以人类的最佳利益行事。 阿西洛马AI原则分为三大类23条。第一类为科研问题,共5条,包括研究目标、经费、政策、文化及竞争等;第二类为伦理价值,共 13条,包括AI开发中的安全、责任、价值观等;第三类为长期问题,共5条,旨在应对AI造成的灾难性风险。 对比阿西莫夫的机器人三大法则:第一法则,机器人不得伤害人类,或因不作为使人类受到伤害;第二法则,除非违背第一法则,机器人必须服从人类的命令;第三法则,在不违背第一及第二法则下,机器人必须保护自己。我们可以发现,虽然阿西洛马AI23原则没有阿西莫夫机器人三原则简洁明了,但它是人类进入人工智能时代的重要宣言,是指导人类开发安全AI的重要指南,受到了AI行业的广泛支持。 但危机仍然存在,未来仍不确定,马斯克在会议发言中说,我们 本文来源:https://www.wddqw.com/doc/8c2dd7cb740bf78a6529647d27284b73f2423668.html