返回首页|能源行业产品大典 与我互动 在线投稿
扫描关注能源界官方微信

滚动新闻:

当前位置:首页 > 智能制造

破解人工智能神话:我们该怎样担忧超级人工智能?

2016-08-31  来源:互联网      关键词: 人工智能  神话 

人工智能未来如何, 它对于人类又意味着什么都是当下的热门话题。关于人工智能未来对工作市场的影响;达到人类水平的人工智能是否以及何时会出现;这又会不会引发智能大爆发;对于这样的未来我们是应该积极拥抱还是感到害怕等诸如此类的问题,世界顶级专家之间一直存在争议。但是也有一些烦人的伪争议是由于人们理解错误和总是彼此讨论不休引起的。为了帮助我们把精力集中在有趣的争议和公开的问题而不是误解上,就让我们一起来破解最常见的神话(注:本文所说的「神话」和传说中的「神」无关(如果人工智能不会成为我们的神的话),而是指毫无根据的猜测和论断)。

\

时间表的神话

关于时间表的第一个神话:机器极大超越人类水平智能需要花多长时间?关于这个问题的一个常见错误概念是,我们认为机器超过人类智能是毋庸置疑的。

我们知道的一个流行的神话是本世纪内会有超人类人工智能出现。事实上,历史充满了技术的过度炒作。那些对我们许下承诺的现在会有的飞行汽车和聚变电站在哪里呢?过去人工智能也是被反复夸大,甚至该领域的一些创始人也在夸大。例如,John MaCarthy (他造出了「人工智能」这个词)、Marvin Minsky、Nathaniel Rochester 和 Claude Shannon 写过一个过于乐观的预测:「我们提出一个达特茅斯学院在1956 年夏季做出的两个月,十个人的人工智能研究[...],我们需要作出尝试,找到如何让机器使用语言形成抽象和概念以解决目前只有人类才能解决的问题的方法,并让机器能自我改进。我们认为如果能精心挑选出一个科学家团队,合作一个夏天,这个问题就能有重大突破。」

另一方面,一个流行的反神话是我们知道本世纪内不会出现超人类的人工智能。研究者们已经从各个方面估算了超人类人工智能离我们还有多远,但是由于技术怀疑论者之前很多关于技术的悲观语言都没有实现,所以我们还是无法断定本世纪内不会有超人类人工智能。例如,Ernest Rutherford(可以说是这个时代最伟大的核物理学家)在 1933 年曾说过———在西拉德发明的核反应链前的 24 小时内—— 所谓核能就是「镜中花水中月」。还有在1956年时,皇家天文学家( Astronomer Royal )Richard Woolley 把星际航行称为「完全是胡扯」。这种神话最极端的形式是超人类智能永远不会出现,因为它在物理学上是不可能的。然而,物理学家知道大脑由夸克和电子排列构成,运作起来就像一个强大的计算机。也知道没有物理定律可以阻止我们建立更智能的夸克斑点(quark blobs)。

还有一些调查问了研究者们按至少 50 % 的概率算,人类水平的人工智能距离我们还多少年。所有的这些调查都有同样的结论:世界顶级专家们的意见不一致,所以我们根本不知道答案。例如,在 2015 波多黎各人工智能大会(2015 Puerto Rico AI conference)上的一次人工智能研究者意向调查中 ,平均(中位数)的答案是 2045 年,但一些研究人员猜测需要几百年或更长时间。

还有一个神话是,担心人工智能的人认为要不了几年,上述预言都能实现。但事实上,根据记录大多数担心超人类人工智能的人认为至少还需要几十年才能实现这些预言。但是这些人强调只要我们不是 100% 肯定本世纪不会出现超人类人工智能,最好还是要为意外启动安全研究。很多涉及人类水平人工智能的安全问题都很棘手,需要几十年才能解决。所以,现在就要开始研究安全技术,而不是等到一些程序员灌了几瓶红牛决定开启这些可能对人造成巨大伤害的人工智能的前一晚才开始着手研究安全措施。

争议的神话

另一个常见的错误概念是担心人工智能并拥护人工智能安全研究的人都是那些对人工智能不甚了解的卢德派。当标准人工智能教科书(人工智能:一个现代化的方法, Artificial Intelligence: A Modern Approach)作者 Stuart Russell 在波多黎各人工智能大会演讲中提到这个观点时,引来了下面观众的放声大笑。支持人工智能安全研究本身就有巨大争议。事实上,为了支持一个适度投资人工智能安全研究,不需要让人们相信人工智能会带来高风险,只要让他们知道安全研究不是可忽略的就行了。就像如果你想让一户家庭购买家庭保险,只要向他们证明房屋火灾不是不可能发生的就行了。

也许是媒体让人工智能安全 争论看起来比现实更加具有争议。毕竟,恐惧是可以卖钱的,用断章取义的引用来宣告厄运迫在眉睫的文章能产生比平衡各方观点的客观性言论更多的点击。结果是,从媒体文章的引用中获取观点的两个人只知道对方的观点很可能是想法上的分歧比较多。比如,一个技术怀疑论者只看了英国某小报报道的比尔盖茨的某些观点就错误的认为盖茨相信超级智能迫在眉睫。类似的还有,支持有益的人工智能运动的人可能就只知道吴恩达说过自己不担心人工智能就像不担心火星人口过剩,这样的人或许会错误地认为吴恩达毫不关心人工智能安全问题,但是事实是,吴恩达关心这个问题。问题的症结在于因为吴恩达的时间表估算的太长了,所以相较于长期问题,他很自然地倾向于优先考虑短期内人工智能面临的挑战。

关于超人类人工智能风险的神话

「Stephen Hawking 警告机器人的崛起可能是人类的灾难。」看到这样的标题,很多人工智能研究者都会翻白眼。很多人都记不清看过多少类似的文章了。通常来说,这些文章都都会描述到一个拿着武器面目可憎的机器人,并建议我们要担心机器人崛起后会杀了人类,因为它们开始有了意识变得邪恶起来。乐观点说,这类文章着实让人印象深刻,因为他们简明扼要地总结了人工智能研究者不会担心的情景,这个情景结合了三个独立的错误概念:对意识、邪恶和机器人的忧虑。

如果你沿路开着车,你会有一个关于颜色、声音等的主观经验。但是一辆自动驾驶汽车会有主观经验吗?它的感受就是一个自动驾驶汽车的感受吗?即便关于意识在自我权利的神秘非常有趣,它也与人工智能风险没有多大关系。如果你被一辆无人驾驶车撞了,那么它是否有主观意识对你来说意义也不大。同样地,会影响我们人类的是超级智能人工智能会做什么,而不是它的主观感受如何。

害怕机器会变成魔鬼是另一种不相干的忧虑。真正需要担心的不是它的恶意,而是能力。定义中的超级智能人工智能擅长达到任何目标,所以我们需要确保的是让它的目标始终与我们的目标一致。人类一般不讨厌蚂蚁,但是我们比它们聪明太多,所以如果我们想建一座水电站大坝时有一座蚁山在那里,那就对蚂蚁来说太糟了。有益的人工智能运动的目标是避免将人类置于蚂蚁的地位。

对意识概念的误解与机器没有目标的神话有关。机器显然能有狭义上的目标——做出目标导向的行为,比如,热跟踪导弹被最简洁地解释为以击中目标为目标。如果你感到被一台目标和你不一致的机器威胁了,而给你带来的麻烦的正好是狭义上的目标,不是机器是否有意识,也不是它感受到的目标感。如果热跟踪导弹正在追踪你,你大概不会辩解:「我不担心,因为机器没有目标!」

我同情 Rodney Brooks 和其他被耸人听闻的小报妖魔化的机器人先驱,这对他们不公平,因为一些记者看起来总是盯着机器人不放,在文章中把机器人描绘成长着红色眼睛面目狰狞的金属怪兽。事实上,有益的人工智能运动主要关心不是机器人而是智能本身:尤其是与我们目标不一致的智能。给我们带来麻烦与我们目标不一致的超人类人工智能不需要机器人身体,仅仅是一个互联网连接或许就能智胜金融市场,在发明上超越人类研究员、操纵人类领袖、甚至设计出我们无法理解的武器。即便造不出一个这样的实体机器人,一个超级智能和超级富有的人工智能也可以很容易地收买或操纵许多人,让他们在不知不觉中按照它的意思做事。

这个机器人误解还与机器不能控制人类的神话有关。智能可以实现控制:人类控制老虎不是因为我们更强壮,而是因为我们更聪明。这意味着,如果我们放弃人类作为地球上最聪明物种的地位,我们也就可能放弃了控制权。

有趣的争议

不要在上述错误概念上浪费时间了,让我们关注那些专家都在争论的真正的有趣的争议。你想要什么样的未来?我们应该发展致命的自动武器吗?你想在工作自动化中发生什么?你会给今天的孩子们什么样的职业建议?你喜欢新的工作取代旧的,还是一个没有工作的社会,每个人都享受休闲和机器生产财富的生活?我们会控制智能机器吗,还是它们会控制我们?你希望它会是什么样的,以及我们如何才能让未来变成你期望的那样?欢迎一起讨论这些问题!

继续阅读