当智能机器可以像人类一样自主决策,我们就需要考虑以下问题:它们能够作出哪些类型的决策?它们是基于什么作出这些决策的?谁来设定它们的决策参数?如何实现人工智能作出符合社会伦理道德的决策?

  人工智能机器与自动化机器设备相比,有两个显著不同:第一,它们被赋予了更多的决策权,不再是有限决策或完全被预先设定路线或程式的功能机器;第二,它们被要求在更加复杂、充满不确定性的环境中运行,不仅要和其他各种类型的机器互动,更要和人类或动物产生互动。这是一种从量变到质变的飞跃。在医疗、交通、新闻、军事等领域,人工智能已经被广泛应用,由此所产生的伦理问题也会逐渐增多。当下,涉及道德决策问题的讨论,最典型的当属自动驾驶汽车。它们被要求具备作出“正确”道德决策的能力,而且是在没有人为干预和指导的情况下。

  关于自动驾驶汽车道德决策的讨论集中在与“电车困境”类似的极端场景。这一困境背后隐藏着亟待解答的问题是,究竟该由谁(制造者、使用者、集体和其他智能机器)来决定智能机器的道德决策的参数设定?通过类似的案例研究人工智能道德决策具有启发性,也具有一定的误导性。根据美国交通部门2013年的一项统计,每1亿英里只有77次受伤和1.09次意外死亡事故,而且每一起事故的发生情境都具有明显的差异性。上述案例中,杀死或伤害谁的道德困境的确可能发生,但出现的概率很小。这类研究之所以备受关注,很大程度上是因为它关乎人们的生死抉择。但是,自动驾驶汽车不可能做到百分之百正确的决策,当前工作的重点是确保它们被设计成在车祸情形中风险最小。

  安全问题应当被最优先考虑,但它不是问题的全部。要拓宽道德算法的范围,涵盖其他一些次要的因素。我们可以将自动驾驶过程将会面临的各种决策情形划分为不同的等级,用一个金字塔来表示:“电车难题”情形下的决策处于最顶端,数量相对少见;道路使用者是否遵守交通规则的抉择处于中部,占据主体部分;各种并不违反交通规则但可能影响其他道路使用者的决策情况占据金字塔的最低端。对于这些道德决策情形的研究,可以接受思想实验方法的启发性指导,但更多地应该通过实证研究进行。

  目前,对于人工智能道德决策的研究有“自上而下”和“自下而上”两种研究进路。自上而下的研究是将伦理原则或某种道德理论进行编码,植入智能机器的制导系统当中,自动驾驶汽车基于被嵌入的道德哲学程序做出道德选择。不过,正如批评者们所指出的:一方面,适用于某些人的道德标准可能并不适用于其他人;另一方面,如何在互相竞争的道德系统之间进行选择存在困难,这些争论在传统的伦理学讨论中尚且没有定论。

  自下而上的进路主张,是指智能机器不需要被嵌入任何道德规则或道德哲学,它只需要“观察”并分析大量的实际情境中人类的行为数据,就能学会如何做道德决策。这种依托大数据和机器学习的进路已经在自动驾驶汽车的非伦理方面被广泛采用。例如,自动驾驶汽车能够通过对几十个小时的手动驾驶数据进行分析实现自动驾驶。不过,批评者也指出,智能机器在学会道德行为的同时也会学会一些不道德行为。在面临突发情况时,司机因紧张做出的条件反射式动作可能成为机器学习的对抗样本,而不是审慎的和值得提倡的道德决策。这样,智能汽车学会的只是常见的处理方式,而不是什么是道德的。

  两种研究进路都面临种种困难,这主要源于人类所使用的道德哲学的内在结构,而不来自技术本身。当我们考虑把某种道德规范或价值标准植入智能机器时,共同体的道德一致性和智能机器使用者的个人偏好,究竟应该优先考虑哪一个?2016年,《科学》杂志刊发的一项研究揭示,大多数人都支持智能机器保护更多的人。但是,当涉及自身或家人的生命安危时,人们可能转向相反的道德标准。

  至此,我们应该认识到对人工智能的道德决策实施监管是必要的。这种监管要通过两种途径同时着手:一是外部制约。随着机器学习的不断增强,人工智能的道德决策可能会偏离初始设置,因此监管机构要定期审查其道德算法是否还能通过道德水平测试;二是内部监控。从算法上设置一种二阶程序实时地监控人工智能系统的运行,即用人工智能监管人工智能。