人类对人工智能有多少误解

2016-04-25 14:07 羊城晚报

打印 放大 缩小

来源标题:人类对人工智能有多少误解

编者按

2015年,德国大众汽车制造厂中一个机器人“杀”死了一名人类工作人员,当时大众汽车公司发言人称,该事件初步断定是人为操作失误造成的,而不是机器人的问题。可随着人工智能越来越普遍地出现在我们的生活中,这种“耸人听闻”的事件不可能不引起人们的热议。

今年,AI(即人工智能机器人阿尔法狗)与人类顶尖棋手的对弈,再次震惊全世界。人们提出了关于人工智能可能超越人类大脑的种种疑问,比如“机器人三定律”是否能真正控制人工智能?人类是否该继续设计更“完美”的机器人?等等。

所谓的“机器人三定律”其实是美国科幻作家阿西莫夫在1950年末出版的《我,机器人》一书中提出的关于“机器人学三大法则”,该法则为后世的创作产生了一定的指导意义:第一法则,机器人不得伤害人类,或坐视人类受到伤害;第二法则,除非违背第一法则,机器人必须服从人类的命令;第三法则,在不违背第一及第二法则下,机器人必须保护自己。当然后来该法则还衍生出第四、第五、第六法则,但始终强调机器人不得逾越人类的标准。

但通过数年时间的研究,人工智能的发展速度显然已远远超过了我们的想象。至今,人类对人工智能还存在一些什么样的误解呢?想必你会想知道详情。

误区1

“我们永远不可能发明出和人类智力相当的AI。”

在一些特定领域,比如说国际象棋、围棋、股市交易以及人机对话等,我们已经发明出与人脑匹敌或超越人脑的计算机。电脑和驱动它们的运算法则只会变得更好,电脑精通几乎任何人类能力范围内的事只是时间问题。

美国纽约大学心理学家盖瑞·马库斯曾说过,几乎所有研究AI的人都认为机器最终将取代人类。甚至有未来主义者认为,机器统治人类这件事会在几十年后发生。因为我们的大脑是“生物学意义的机器”,我们存在于现实世界里,就要遵循基本的物理法则,人脑没有东西是不可知的。

误区2

“人工智能将会有意识。”

关于机器智能的一个普遍假设是:将来机器智能会有意识。也就是说,机器会像人一样思考。但评论家们,如微软创始人之一的保罗·艾伦则认为,我们还未达到人工通用智能水平,即机器能够像人类一样执行任何需要智力的任务,因为我们缺乏关于意识的科学理论。

英国伦敦帝国理工学院认知机器人研究者穆雷·沙纳罕指出,我们应该避免混淆“认知”和“意识”这两种概念。“探究意识确实是一门迷人且重要的课题,但我认为,意识对于人类水平的人工智能来说并不是必要的。”我们最终可能会制造出极其聪明的AI,但它不能通过主观的自我意识去感受这个世界。不能仅仅因为一台机器通过了“图灵测试”(由计算机科学和密码学的先驱阿兰·麦席森·图灵提出,其内容是,如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试),就认为它有意识。先进的AI留给我们的印象是它们是有意识的,但是再先进的AI对于自己的认识也不会比一块石头或一个计算器更多。

误区3

“超级人工智能会很友好。”

哲学家康德认为,智能与道德密不可分。神经学家David Chalmers在他的论文《非凡的哲学分析》中吸取了康德的这个观点,并将其运用于人工智能的提升理论中。

如果这个观点是正确的话,我们可以想到,AI会因智力爆发性增长出现道德感急剧升高的状况。那么,ASI(超级人工智能机器人)系统变得超级智能的同时,也会具有无上的道德感,因此我们可以认为它们是“善良的”。

但是,这个“先进的AI从本质上将是好的、开明的”的观点其实是站不住脚的。比如智力和道德感之间的关系在人类中貌似就不存在,该假设在其他智能形式中,恐怕同样也难以成立。

误区4

“ 简单的程序修补就能解决AI的控制难题。”

假设创造出比人类更伟大的AI,我们将面临一个严重的问题,那就是控制问题。如何在家里安置以及控制它们?如何确保它们对人类是友好的?理论家对此完全不知所措。最近,美国佐治亚理工学院的研究人员甚至天真地认为,AI可以通过阅读简单的故事来学习人类的价值观和社会习俗。但这可能远不是读几个小故事能解决的问题。这就好比试图给复杂的人类喜恶确定一个简单肤浅的定义,要么就是把复杂的人类价值观生硬地压缩成一个简单的字词或想法。

研究者说,“并不是说这些简单的技巧是没用的。这些对策里有些东西给研究指明了道路,对解决这个终极难题有所帮助。但这些还只是想法,具体的操作还需要做更多的研究工作。”

但没有任何证据表明我们会被AI毁灭或无法控制它们。正如AI研究者Eliezer Yudkowsky所说:“AI既不会恨,也不会爱,但人类是由原子构成的,除了智能以外,人类还有感情。”只是目前没有什么事是可以确定的。没人知道AI是否会或将采取什么行动以及如何威胁到人类。正如人工智能可以用来控制、调节和监视其它人工智能,也许人类也可以给它灌输人类的价值观,使之毫无保留地对人类保持友好。

而且高度智能化的系统在一些特定领域内是无人能及,但在此领域之外,也可能会变得极其无知。比如谷歌的DeepMind系统精通围棋,但除围棋以外,它在其他方面没有探索的理性和能力。

误区5

“超级人工智能(ASI)很聪明,不会犯错。”

AI研究者兼Surfing Samurai机器人开发者Richard Loosemore认为,大多数假设的AI毁灭世界的情景都不符合逻辑。他指出,如果AI打算毁灭人类时,那它一定会产生很多逻辑矛盾,也会因此摧毁自己的知识库,导致自己变得愚蠢,而不足以对我们造成伤害。但就职于牛津大学人类未来研究所的皮特·麦金泰尔和斯图尔特·阿姆斯特朗却认为,从逻辑上来说,人工智能将很大程度上受到编程的限制,所以它们也会犯错误,只是要看这个“错误”的定义是什么。

“从定义上讲,超级人工智能(ASI)是一个拥有智力的载体,它在各个相关领域都要比最优秀的人类大脑更聪明。它将十分清楚我们用它们来做什么,也将能理解人类的意图。”把人类未来的困境与老鼠的困境相比较,我们会更容易理解。人类明白老鼠的目的,是想要在人类居所寻求食物和栖息地,但人类却对此漠不关心,甚至不希望它们存在于自己的居室——超级智能系统也知道人类想要的,但它们仍然会对此漠不关心。这算不算一种错误?

误区 6

“ 我们不应该害怕AI。”

今年1月,FaceBook创办者马克·扎克伯格说,我们不应该害怕AI,AI会为世界带来难以估量的好处。其实扎克伯格只说对了一半。我们随时准备从AI身上收获巨大的利益——从自动驾驶汽车到新药物的研制,但是没有人能保证AI的所有影响都是良性的。

不加鉴别发布消息的媒体和好莱坞电影比如《终结者》系列,都可能使我们对机器人的误解更进一步加深。比如,如果一个超级人工智能“天网”,想要毁灭人类,它不会使用端着机枪的机器人。它们还可以有更高效的办法,如散播瘟疫,引发纳米级灰雾灾难,甚至仅仅只需要破坏掉大气层。人工智能有潜在的危险,不是因为它所昭示的机器人的未来,而是它在世界上的自我定位。

误区7

“未来的AI和科幻小说里的AI是相同的。”

科幻作品被作家和未来主义者们用来预测美好的将来,但ASI所带来的图景可能完全不是一回事。更重要的是,与人类本性不同的AI不会让我们知道并预测它们确切的本性和形式。

科幻作品考虑到我们人类是弱小的,大多数AI被设定得与人类很类似。有一些观点认为,即使是在人类中,也存在着多种类型的心智模式——你和你的邻居就是不同的——但人与人之间的心智区别同其他可能存在的心智形式相比其实是微不足道的。当然,大多数科幻小说旨在讲一个引人入胜的故事,难免不够科学、准确,科幻小说中的冲突往往是存在于实力接近的实体之间,但有科学家预测,“没有意识、喜乐或仇恨的AI可能会毫无阻力地消灭所有的人类,达到一个本身很无趣的目标”,只是这样的场景放在电影里,可以想见会有多无聊。

误区 8

“AI将会抢走我们所有的工作。”

人工智能把我们大部分的工作自动化,这和它能毁灭人类的潜在性,其实是两件完全不相关的事情。但毫无疑问,人工智能将取代很多现存的职业,包括从车间工人到高级白领。一些专家预测,在不久的将来,美国有一半的工作将被自动化所取代。在未来的几十年里,AI还将抹杀许多工作职位,但这并非不是好事,例如,自动驾驶汽车将取代卡车司机,这样可以节约运输成本,使货物的价格更便宜。而从中省下的钱又可用于其它的商品和服务,这可以为人类创造新的就业机会。

这意味着我们并不是没有能力应付局面。只是可能出现最理想的情况——无论是脑力劳动者还是体力劳动者,都从劳役中解放了出来。总之,人工智能的进步将引领其它领域的进步,特别是制造业的进步。在未来,它将更容易满足我们的基本需求,而不是相反。 □Bonnie&死水 编译

责任编辑:刘洪昌(QF0001)