18897.com

人类能造出有道德的机器人吗?

添加时间:2019-01-18

  编者按 2018年12月18日,欧盟人工智能高级别专家组发布了一份人工智能道德准则草案。在许多人担心人工智能取代人类、破坏伦理的大背景下,该草案旨在引导人们制造一种“可信赖的人工智能”。如何才华让机器人更令人信赖?可否赋予它们道德修养呢?就此话题,作者采访了美国匹兹堡大学科学哲学和科学史系杰出传授、西安交通大学长江讲座教养科林・艾伦。

  艾伦:首先要说的是,人类自己还不是完全道德的,将一个人培养成有道德的人可不是一件轻易的事。人类的本质都是出于利己主义做事,而不考虑他人的需求和好处。然而,一个道德的智能体必须学会克制自己的愿望以方便他人。我们现在构建的机器人,真实 未审并不拥有自己的欲望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的道德是有很大差别的。对机器的训练问题在于,我们怎样能力赋予机器一种能力,让它敏感地发觉到哪些对人类的道德价值观而言是重要的事情。此外,机器需要意识到它的行为会对人类造成痛楚吗?我认为是需要的。我们可以考虑通过编程,使机器依照这种方式行事,且无需考虑怎么让机器人优先考虑他者利益,毕竟目前的机器还不领有利己的本能。

  在一些伦理学范畴也有这种“高下之别”,比方康德,还有更早的功利主义学派,如边沁跟密尔,他们就更像是“自上而下”。这些学者试图制定规则以及普遍准则,以便通过这些“条条框框”判断出一个行动是不是道德的。这样对康德的道德律令而言,其涵义就包含着多项具体规矩,例如“不撒谎”。

  就目前而言,第一种含意所设想的机器还是一个迷信幻想。所以,我在《道德机器》一书中略过了对它的探讨,而更有兴趣探讨那些介乎第二、第三种意思之间的机器。当下,我们活力设计者在设计机器人时能够斟酌道德因素。这是由于,在不人类直接监视的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们第一次发现可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最实质的差异。在这样的“无监督”情境中,我们愿望机器可能做出更道德的决议,盼望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。

  然而,我不以为应该禁止其余形式的人工智能发展。咱们须要思考技能对生涯带来了怎么的结果,比如说,主动驾驶汽车会使行人过马路更艰难,还是更加容易呢?自动驾驶汽车面临行人过马路的情况时应附加什么样的权限呢?无人车看到行人能不能保险停下,仍是说它像人类司机一样,依然有可能撞到行人?这些都是我们需要对人工智能进行思考的问题。无人驾驶汽车不仅不该停止发展,而是应该投入更多。

  (作者系西安交通大学盘算哲学实验室中方主任,温新红对本文亦有贡献)

  问:应当制约人工智能的发展吗?

  问:机器人会变得更好还是更危险?

  艾伦:从前10年来,人工智能在某些方面的飞速发展令人吃惊,但算不上满意。在我看来,未来10年内无人驾驶汽车投放到切实路况中的可能性不大。苹果公司推出了一个可以交谈的智能体Siri,但以当初的情形来看,Siri很蹩脚不是吗?所有我使用过的类似产品,诸如Alexa,Google Talk,都不尽人意。所以我现在不会从伦理的视角对人工智能的发展过于担忧。这些企业竟然真的宣布了这些产品,但更令我惊奇的是,人们居然在很大程度上调整自身行为以适应人工智能,因为你晓得把Siri当成正常人来交谈的话,它永远不会清晰你的意思。人类在做出调剂,并非机器,因为机器并不是一个自适应的系统。或者说,它比人类具备更弱的适应性。这是最令我担心的。

  艾伦:我认为这取决于应用领域。我当初并不担神思器人或人工智能会代替人类,如果情形变得危险,我们是有才能去阻挡它的。比喻说突然创造机器人可以生产机器人,我们要做的无非就是切断电源。

  亚里士多德对道德持有相当不同的观点。他认为,道德应该是一个人通过训练而习得的。因此,亚里士多德的观点就更倾向于一种“自下向上”的措施,这种方式就是一个人通过练习变得好、善良、勇敢。当践行道德的时候,咱们就称之为美德伦理。通过这样做,一个人会变得更具美德、会有更好的举动。

  问:什么是人工智能的“道德”?

  当然,我所担心的并不是机器做的事件超出人类的猜想,而是它们可能转变并限度我们的行为。AlphaGo赢了围棋,但并未改变我们的日常生活,所以没什么好担心的。我担心人们用愚笨的办法与机器交谈,以便机器按照我们的主张做事。要知道,这领有良多潜在的危险。它潜移默化改变我们的习惯行为,使我们对某些类型的错误更具容忍性而对有些毛病却更加苛刻。人们会预觉得并且能容忍人类所犯的道德错误,但是,人类可能不会容忍这样的弊病在机器上发生。经过打算考虑后仍对别人造成侵害的决策如果发生在机器上,会比发生在人类身上更不能令人容忍。在从前10年内,这种改变已经发生了。即使软件会变得更好,机器也会变得更好,但是永远都存在着让人类去适应机器而非真正提高人类能力的危险。

  当然,确实存在一些应该停止人工智能应用的地方,其中一个就是人们正致力开发的军事范围。从人类的历史来看,一旦有人构想出一个武器,那将很难制止另一些人的欲望及其为之奋斗的野心。核兵器跟无人机就是很好的例子。

  人类能造出有道德的机器人吗?

  艾伦:人工智能的“道德”,或者说“道德机器”“机器道德”,有很多不同的含意。我将这些含义归为3种。第一种含义中,机器应具备与人类完全相同的道德能力。第二种含义中,机器不用完整具备人类的能力,但它们对道德相关的事实应当存在敏感性,并且能依据事实进行自主决策。第三种含义则是说,机器设计者会在最低层面上考虑机器的道德,然而并不赋予机器人关注道德事实并做出决定的才干。

  艾伦:我们曾在《道德机器》中探讨了机器道德发展模式,认为“自上而下”和“自下而上”相混杂的模式是最佳答案。首先谈一谈“自上而下”和“自下而上”象征着什么。我们以两种不同的方式应用这两个术语。一个是工程的视角,也就是一些技巧和打算机科学的视角,例如机器学习和人工进化,而另一个则是伦理学视角。机器学习和人工进化并不从任何原则开始,它们只是试图使机器吻合特定类型的行为描述,并且在给定输入使机器以这种方式行事时,它的行为可能符合特定类型,这叫“自下而上”。与之比较,“自上而下”的方法则象征着一个明白的、将规则赋予决策过程的模式,并且试图写出规则来指导机器学习。我们可以说,在工程领域中,“自下向上”是从数据当中学习教训,而“自上向下”则是用断定的规则进行预编程。

  问:发展人工智能的道德应采用怎么的模式?

  这就是混淆方式的基本思路,我认为它确切合乎人类的情形。举个例子,当你还是个孩童时,你对兄弟姐妹做了什么不好的事件,父母会说“假如这种事情产生在你身上,你会有何感想呢”,是吧?在很多道德传统中都有这样一种原则:“以你自己对待本人的方法,或是你渴望被别人对待的方式去看待别人”,有时人们也称这一原则为黄金法令。所以,你不仅仅被告诉不要那样做,也并不仅仅因而而受罚,实际上你会被告知去思考这样做为何是好的或不好的,这就是“自上而下”与“自下而上”的结合。

  问:如何让人工智能存在道德?

  常识分子

  我认为亚里士多德的看法更正确。因为人类并不是靠“瞎碰瞎撞”去养成习惯的,也会对习惯进行思考,并思考需要哪些原则。亚里士多德留心到,在准则灌注和习惯训练之间存在着一种彼此作用。我们认为,这种途径同样也适用于人工道德智能体的构建。在许多实时决策的情境下,我们并没有足够的时间来反思行为背地的实际或原则含义。但是,我们还可以从过错中学习,因为可以利用这些“自上向下”的原则从新评估我们所做的事情,之后再进行调解和从新训练。

  王小红