人工智能————不可控性
人工智能的发明将改变人类文明的轨迹。但是,为了从如此强大的技术中获益,避免危险,人们必须能够控制它。目前,人们甚至不知道这样的控制是否有可能。有科学家认为,人工智能不可能被完全控制。
过去十年里,人工智能(AI)的发展并非一帆风顺。多次AI失败的情况表明,在创建高能力机器的同时这些机器也必须对人类有益。这种担忧催生了一个新的研究领域“ AI安全与保障”。但是所有这些研究都假设控制高性能智能机器是可能的。
人工智能控制问题是人工智能安全保障的决定性挑战和难题。控制超级智能的方法分为两大阵营:能力控制和动机控制。能力控制通过限制ASI系统的环境、增加关闭机制来限制ASI系统的潜在危害。动机控制将ASI系统设计为一开始就不希望造成伤害。能力控制方法最多被认为是临时措施,当然不能作为ASI控制的长期解决方案。
动机控制是一种更有前途的方法,需要被设计到ASI系统中。但也有不同类型的控制,人们可以很容易地在“智能”自动驾驶汽车的例子中看到。比如有人发出“请停车!”指令,人工智能可以通过四种方式做出反应:
显式控制——人工智能会立即停车,即使是在高速公路中间,因为它只会理解字面意思。这是现今人们在语音助手(Siri等)所常见的。 隐式控制——人工智能试图在安全的情况下停车。这类人工智能有一定的常识,但仍然试图遵循命令。 统一控制——人工智能知道人类可能需要去洗手间,并把车停在最近的服务区。这种人工智能依靠它的人类模型来理解命令的意图。 委托控制——人工智能不会等待人类发出任何命令。它把车停在健身房,因为它相信人需要锻炼。这个人工智能就在控制人类。
这些选项,人们意识到两件事。首先,人类容易犯错,因此从根本上来说人们是不安全的,所以让人控制将会产生不安全的人工智能行动(如在高速公路上停车),会更不安全。其次,如果将决策权移交给人工智能会让人们屈服于人工智能的指令。
有人认为,不受控制的人工智能的后果将非常严重,即使是非常小的风险,也需要进行人工智能安全研究。
在最好的情况下,人们可以达到某种平衡,与人工智能生活在一起,人类要么得到保护,要么得到尊重,但不能两者兼而有之。
标题:人工智能————不可控性
地址:http://ai.rw2015.com/industrynews/7184.html
免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。