我们为何要考虑人工智能对人类的威胁 (转载)
GARY MARCUS
如果《纽约时报》最新发表的那篇文章是可信的,那人工智能发展的速度确实是飞快的,甚至有些“神奇”。汽车能够自动驾驶;siri系统能够听懂指令,为你找到最近的影院;IBM公司将“杰帕迪”益智竞赛的冠军——沃森电脑系统安装在机器上,这最初是用来训练医学院学生的,可能最终会用来诊断疾病。每个月都会有一种新的人工智能产品或技术出现。也许有些热情过早了些:正如我以前提到的,我们还没有生产出有常识,有视觉,具备语言处理能力,或创造其他机器能力的机器。我们直接模仿人脑的工作还处于初级阶段。
在某种程度上,支持者和怀疑者之间的唯一不同之处就只是时间问题。预言家及发明家雷·库兹维尔认为到达人类级别的智能机器会在20年内出现。我对此有些怀疑,尤其是考虑到计算常识这一领域,人类取得的进步很小;在创建人工智能方面遇到的挑战,尤其在软件层面,肯定比库兹维尔所说的要难。
但在接下来的一个世纪里,人们不会关心人工智能成功建立要花多久时间,他们只关心接下来会发生什么。很可能在本世纪末,机器会变得比人类还聪明——不仅在下棋或一些琐事上,而是在每一方面,从数学,工程到科学,医药。艺人,作家,还有其他创造性的职业会变得很有限,电脑最终会操控自己,吸收大量的新信息,并能理智地整理出来,这是我们这些碳基生物只能依稀想象的。电脑能够每时每秒都工作,不用睡觉,不用休息。
对于有些人来说,未来是神奇的。库兹维尔描写了一种令人着迷的奇点,人类与机器融为一体,从而使人类的灵魂变得不朽;皮特·戴曼迪斯认为人工智能的进步是开启“丰富”新纪元——有充足的食物,水,各种消费品——的重要一步,像埃瑞克·布吕诺尔夫松这样的怀疑论者和我都担心智能机器与机器人作为劳动力可能会造成一些恶劣的后果。但是,即使你暂时不担心超级先进的智能机器对劳动力市场产生的影响,那也还存在其他的担心:强大的人工智能会为了资源直接与我们开战,威胁我们的生存。
大多数人把这种担心看作是科幻小说里的蠢话——像《终结者》和《黑客帝国》这类。在一定程度上我们得为适中时间长度的未来做打算,我们要担心小行星会撞地球,化石燃料产量下降,全球变暖等问题,而不用担心机器人问题。但是詹姆斯·巴雷特的黑暗系新书《我们的最终发明:人工智能和人类时代的终结》,描述了一种严峻的情形,我们多少要有些担心。
巴雷特的核心论据是取自于人工智能研究员史蒂夫·奥摩亨德罗的研究:自卫本能和获取资源的属性可能是某一智能的目标驱动系统所固有的。用奥摩亨德罗的话说就是“如果会下棋的机器人足够聪明,那它就会想要制造宇宙飞船”,从而获得更多的资源来实现它的目标。巴雷特写道,一个非常理性的人工智能可能会扩大“其自我保护的想法…包括对未来出现的威胁——比如,人类不愿将其资源让给机器,进行主动攻击”。巴雷特担心“要是不慎重,缺少补偿指令,具备自我意识,能够自我提高,目标明确的系统也会千方百计地完成我们认为是荒唐的目标。”它甚至可能会指挥世界上的所有资源去最大化实现它所感兴趣的推测。
当然,人类可以试图阻止超级智能电脑连接到一起。但是“自动化技术在经济,军事,甚至是艺术方面的竞争优势实在是太强烈了,”数学家及科幻小说作家夫诺·文琦写道,“通过法律,制定惯例这类事是没法阻止的,如果阻止了,那也只是确保将来有其他人会干。”
要是机器最终取代了我们——正如那些在人工智能领域工作的人所坚信的那样,那真正的问题就在于价值观:我们怎样把价值观植入机器中,如果它们的价值观与我们的价值观发生了偏差,那我们该如何和这些机器协商呢?牛津的哲学家尼克·博斯特罗认为:
我们不能乐观地认为,超级智能一定会分享人类关于智慧和智能发展的成型的价值观——对科学的求知欲,对他人的关心和仁慈,精神启发和沉思,克制物质占有欲,有高雅的文化品位,简单乐趣的感悟,谦虚无私等等。可能通过专门的训练可以打造拥有这些价值观的超级智能,或是珍视人类财富和高尚品格的智能,或是设计者想要它拥有一些复杂目标的智能。这是可能的——可能从技术上说更简单——打造一个能够把最终价值都放在计算圆周率小数上的超级智能。
英国控制论家凯文·沃里克曾问道:“当机器不在我们人类所处的思维次元中思考时,你怎么跟它讲理,怎么跟它做交易,怎么能明白它的想法?”
如果说巴雷特的黑暗系理论中有个漏洞,那就是他未经思考就提出的假设:如果机器人聪明到可以下棋,那它也会“想要制造宇宙飞船”——自我保护和获取资源的本能是任何足够复杂,目标驱动的系统所固有的。现在大部分机器都足够先进,可以下棋,比如,IBM公司的深蓝系列电脑,但是它们还没有显示出要获得资源的兴趣。
但是在我们感到满足,确信没什么好担心前,有一点非常重要:我们要意识到随着机器越来越聪明,它们的目标也是会变化的。一旦电脑更够有效地重新给自己编程,成功地提升自己的性能,达到所谓的“技术奇点”或“智能爆炸”,那么我们就不能忽视机器在与人类抢夺资源和自我保护的较量中会胜过人类的风险。
巴雷特书中最突出的观点之一是来源于著名的系列人工智能企业家丹尼·希利斯,他把即将到来的转变比作是生物进化历史上最重大的转变之一:“我们现在所达到的高度正像是一个单细胞有机体转变为多细胞有机体的高度。我们是变形虫,我们不清楚自己在创造的到底是个什么东西。”
人工智能的进步已经造成了我们从未想过的危险。德雷塞尔大学的电脑风险专家加格跟我说:随着因特网时代的到来及其数据的爆炸性增长,“关于我们的许多数据都被收集起来并输入计算程序,做出预测”, “我们无从知道数据被收集的时间,没法保证收集的数据信息是准确的,没法更新信息,或提供必要的信息背景”。在20年前,几乎没有人会想到这种风险。前方还有什么危险呢?没有人真的知道,但是巴雷特提出的问题是值得思考的。
原文连接:
http://article.yeeyan.org/compare/385045网上看世界杯:
http://deportesenvivo.univision.com/game/italia-at-inglaterra-on-20140614