人工智能网致力于为中国广大企业、企业家和商界、经济界人士,以及全球华人经济圈提供实时、严谨、专业的财经、产业新闻和信息资讯媒体。

当前位置:人工智能网 > 人工智能 > 超级人工智能正在超出人类理解能力,人类约束它的可能性非常低

超级人工智能正在超出人类理解能力,人类约束它的可能性非常低

来源:互联网作者:王林更新时间:2021-06-21 07:33:46阅读:

1950年,美国著名科幻作家艾萨克·阿西莫夫出版了他的著作《我,机器人》。在这部著作里,一共有9个故事,它们拥有一个共同的主题,那就是人类和机器人的关系。

在这里,阿西莫夫提出了著名的机器人三定律:

第一定律:机器人不可以伤害人类,或者看见人类在面临威胁时袖手旁观;

第二定律:在不违背第一定律的前提下,机器人必须服从人类下达的指令;

第三定律:在不违背前两条定律的前提下,机器人要尽量保护自己的生存安全。

这三条定律非常著名,以至于到了今天,已经是人类在开发机器人时所不可回避的话题。甚至有人还在此基础上,提出了机器人第零定律:机器人必须要保护整个人类种族的利益不受破坏,这一条定律的优先级要高于原来的三条。

在阿西莫夫的年代,机器人在极大程度上还停留在科幻的层面。如今,机器人已经开始逐渐走入我们的生活,人工智能已经在许多方面参与到了人类社会进步的进程中。随着人工智能越来越发展,它们是否可靠的问题也再一次成为了科学家们热烈讨论的话题。

庆幸的是,现在的人工智能发展还相当有限,它们更多地是在人类生活和科技发展中充当人类的帮手。然而,随着人工智能不断进步和突破,它们是否还会忠诚于人类呢?

尽管有阿西莫夫提出的机器人三定律,但这毕竟是人类一厢情愿的规则。一旦人工智能有了自己的思维,它们是否愿意遵从人类制定的规则呢?

不知道。因此,除了通过程序输入这样的法则来约束人工智能以外,科学家们必须还有其他的方法来防止最坏的情况出现。可是,科学家最近却给出了一个悲观的答案。如果未来超级人工智能真的想要反叛人类,我们很可能将束手无策。

首先的一个问题在于,想要控制一个智能水平远远超过人类的机器人,就要利用我们能够分析的方式来模拟这个超级人工智能。这又是矛盾的,既然我们都无法理解,又谈何模拟呢?

今年年初的时候,《人工智能研究杂志》就发表了科学家的一项研究,论文中就指出:如果我们都不清楚超级人工智能会出现什么样的情况,那么就算制定了所谓的机器人三定律来阻止它们伤害人类,最终也只能是徒劳无功。当机器人的内部系统超过人类程序员的能力范围时,人工智能恐怕就不会再受到人类的限制了。

他们在论文中写道:“伴随着超级人工智能诞生的,还有一个特殊的问题,它与以往在‘机器人伦理’的大旗之下所研究的问题大相径庭。其原因在于,一个超级人工智能势必是狡兔三窟,因此很有可能偷偷地调用大量自然,来实现它不可告人的目的,因此可控性更是无从谈起。”

他们之所以给出这个悲观的言论,很大程度上是基于被称为计算机之父和人工智能之父的艾伦·麦席森·图灵在1936年所提出的停机问题。这个问题的核心,就是思考一台机器或者说一个程序是否会在有限的时间内结束运行,抑或是永远不停地陷入死循环地去尝试停止下来。

我们可能会在开发人工智能的时候,给它输入一段程序,比如它做任何伤害人类甚至整个世界的行为时,后台就可以将它关闭。但实际情况是,这样的方法未必就能奏效。从数学的角度来考虑,这个程序的奏效与否,是无法完全确定的,这就意味着人工智能仍然有毁灭人类的可能性。

德国马克斯-普朗克人类发展研究所的计算机科学家Iyad Rahwan说道:“这意味着,控制它们的程序是无效的。”

我们可以在研发超级机器人的时候,给它输入一些道德的准则,就像告诉小孩子什么该做、什么不该做一样。但正如上面所说的,这样的道德约束未必能够真的起作用。也有人提出观点认为,最可靠的办法或许就是从源头上解决问题——限制人工智能的能力,比如设计一套预案,在必要的时候切断人工智能的一些网络功能,从而限制其能力。

这就是矛盾的所在:我们一方面希望人工智能可以在最大程度上给我们提供便利和服务,另一方面又心存戒备地防止它们反叛而限制能力。用咱们的一句老话来说就是:不给马吃草,还想让马跑。

不得不说,在人工智能方面,人类确实在做着一些超出自己能力范围的事情。很多人都在为超级人工智能的出现而担忧,然而又不知道它究竟何时会出现。

马克斯-普朗克人类发展研究所的另一位计算机科学家Manuel Cebrian警示我们说:“那种可以操控整个世界的超级人工智能机器,听起来感觉是科幻小说,但现在已经出现了一些机器,其学习独立完成某些任务的能力甚至超出了开发者的理解范围。所以,关于他们是否会脱离人类的控制并威胁到人类的安全的问题,已经摆在我们面前了。”

我们知道,人工智能确实在有些方面胜过人类,比如进行一些科学发现,或者是阿尔法狗的围棋水平等等。但关于这些,我们都知道它们是如何获得这种能力的。但如果人工智能真的以人类未知的模式学习了新的能力,这就确实超乎想象了。

关于人工智能反叛的科幻电影,我们也听说过不少了,这确实也是人们担心的焦点问题之一。但人工智能的发展确实又是必不可少的,人类需要它们的帮助。如何调和这两件事之间的矛盾,还有待于科学家们的进一步探索了。

标题:超级人工智能正在超出人类理解能力,人类约束它的可能性非常低

地址:http://ai.rw2015.com/ai/9411.html

免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。

返回顶部