当前位置: 消防船 >> 消防船前景 >> 浅析机器人的完全的主体伦理将带来什么
“明确的主体伦理”强调机器的能动性,可以像“计算机下象棋一样实施伦理行为”。’换句话来讲,它们可以根据不同的场景在一定的伦理原则下做出某行动。可以说这一具有辨别性的“明确的主体伦理”做出的符合伦理的行为源于可识别的道德决策程序。摩尔进一步推测,这类型的机器在将来可以为自己的行为辩护。
“完全的主体伦理”指的是机器如同我们人类一般,具有“意识、目的和自由意志”。道德感官领域它们能为自己的行为负责,当然它们也可以犯错误,因为它们已具有较强的感官意识。
如果Wallach与Allen的观点是正确的,那么我们可以明确机器能够达到隐式的和明确的道德主体的位置,但是否能够达到完全的道德主体的位置可能还需要一段距离。摩尔认为,如果机器人在短期内尚不能达到这个位置,那“我们把注意力放在限制‘明确的主体伦理’上,因为尽管这一层次的智能体距离‘完全的主体伦理’还有一定差距,但是它们可以帮助我们阻止不符合伦理的结果。”Wallach与Allen同意摩尔的观点,这一问题指出了“明确的主体伦理”与“完全的主体伦理”之间的差别,根据道德图灵测试与机器伦理的相关实施准则,它们完全可以影响人类,那么这两者之间的差别是否能够代表智能体发展所而临的挑战呢?
在机器作为道德主体的工程设计问题上它的答案与经验主义元素紧密结合在一起,也就是说道德机器的设计必须与可实现性准则相联系。如果“应该”蕴含的是“能够”的意思,那么我们可以理解为“应该”也蕴含着“可实现性”。
尽管这一工程不会马上实现,但这种状态是存在的,因为任何道德理论都不可能在一个真实并且运行的环境中通过限制它的能力而达到执行相关命令的目的,不管这个智能体是机械式的或生物式的。因此,如果“应该”蕴含的是“能够”的意思,或者在特定的状态下这一能力能够实现,那么道德责任就必须借助一定的平台促使智能体具有这一可能性。在方法上如果不具有可实现性那么在道德上也不可能实现,因此一个有效的方法必须具有可实现性。从这个意义上讲,智能体的道德系统或道德理论必须通过图灵测试,并且在研究方法或进路上是有效的。如果我们能够成功地设计道德机器,那么我们就没有必要在其内部运行的过程中考虑计算的问题。
但明确的道德主体在“实施伦理行为如同下象棋一般的表现上与完全的道德主体在展示恰当的道德行为并在行为过程中具有意向性和道德动机之间的区别是什么呢?当我们这个世界完全是由人类与道德机器组成时,假设我们成功地把道德机器培养成完全的道德主体,那么这个问题可能就没有什么意义了。
至少我们应该意识到道德并非专属于我们人类自身,完全的道德主体也应该从中分一杯羹。摩尔此时把道德视为伦理行为的必要条件,明确的道德主体可能仅仅是通向完全道德主体的一个途径,或者从推理的角度而言,它已成为伦理标准的一个充分条件。
道德图灵测试与可实现性标准的结合成为伦理行为的有效测试途径。这一在哲学界存在了两千多年的争论,通过在工程领域对于道德行为的模仿有望得到解决。那么这时人类道德概念确定的标准是什么呢?这可能需要对此重新定义或分类,而道德所衍生的标准或准则也可能不再有较强的应用性。
通常美德与责任、荣誉、勇气、纪律等联系在一起。试想如果我们在未来面对这样一条新闻时,也就是“授予在战场上英勇杀敌的首个机器人励章”,我们是否一片哗然?或者我们是否会认为这一行为亵渎了我们所崇尚的荣誉?因为在我们传统的道德观念中,这一荣誉是属于我们人类的,并且荣誉的获得至少应该体现在行动的勇气、纪律、目的或恐怖的经历,以及勇于牺牲的行为等方面。那么机器人的行为是否包含这些因素呢?至少从我们人类的立场来分析,机器人在战场上的行为是人类行为的具体化,它经历了人类观念中的勇气、纪律、目的、可靠性或者自我牺牲的行为。如果这仍不足以体现美德的本质或者我们对荣誉的理解,那么我们是否应该考虑扩展美德伦理的内涵了呢?
实际上,我们授予智能体以荣誉说明它具备了美德伦理的要求,尤其是它对于人类而言所具有的忠诚度或者可靠性。我们此时所定义的忠诚或可靠性主要指机器人的责任能力。而责任在某种程度上体现的是一种因果关系,当消防员解释房间失火的原因是因为电烤箱的缘故时,我们却不能追究它的责任,然而我们可能追究其制造商的责任。
道德上的可靠性是山责任或义务伴随的,现在我们再来看机器人士兵的责任问题,机器人作为未来战场上的主力军,它必然要具有电烤箱一样的可靠性,那么在行动过程中我们如何增加它的责任感并确保它在道德上是可靠的呢?从工程技术的角度而言,我们可能还没有找到一条有效的途径。实际上,道德图灵测试和可实现性的准则己经在道德责任与行为之间形成了一种因果联系。机器人士兵在设计上已具有勇气或者根据它自身的能力去行动,并且它不会去伪装,这种设计上的“因”必然带来行为上的“果”,因此在行为过程中就表现出它的可靠性。
事实上,如果机器人可以得到这一荣誉,那么它所带来的影响对于人类士兵而言也是巨大的。因为道德上的荣誉可以通过虚拟行为得以提升,比如,在《星际迷航》中皮尔卡船长虚拟性格在现实中的扩展,那么机器的某种行为在实际生活中也必然会影响人类。然而,这种虚拟行为所带来的影响我们并没有放在一个合适的位置上。甚至,在我们的观念中机器仅仅是一个工具而已,它仅仅做了应该做的事情。不过在此对这个问题的讨论却加深了我们对于人类道德本质、道德的客观性以及以人类伦理为中心的机器设计思想的认识。
例如,如果可实现性是通向道德领域的必要条件,那么这个过程的细节如何描述。我们人类应该楚有道德的,那么我们必须思考这样一个问题,也就是我们的道德性或道德意识的可实现性是多少?是否可以把人类道德看作是机器道德在生物学意义上的具体化?我们认为,那些在神经伦理学与道德生态学领域工作的人可能在这方面更具认同感。例如他认为我们人类的价值是隐含在生物链接中的。
“如果确实如此,那么我们人类美德应该仅仅是美德体系的一部分。比如,从物种上讲我们是哺乳类动物,哺乳类的美德与爬行类的美德可能存在不同,那么机器美德呢?它有没有可实现性的条件?或者人类美德是否可以促进机器伦理的发展呢?人们开始关心道德的客观有效性,这样道德在可实现性上变得复杂起来。这一问题在生物学、遗传学、神经科学以及技术决定论等领域产生了激烈的争论,我们甚至在思考是否随着科学和技术的不断革新责任的观念会消失。如果确是如此,道德责任也会随之而去,那么最后可能只有因果性的观念了。这样一来,传统的道德责任观念也同样处在风口浪尖。
年,Anderson写到:伦理从本质上而言是哲学的一个分支,它讲的是主体在伦理两难时如何选择的问题。尽管在此讲到了伦理的本质目的,但是在实际应用领域人们却很少对此进行思考。人们研究机器伦理通常强调的是机器伦理在实践领域的应用。正如DanielDennett指出的,人工智能“使得哲学更为诚实”。为了使人工智能体能够明确在伦理两难时的选择,伦理有必要通过计算来表达。
结语至少在面对谎言的问题上,我们认识到可实现性的标准促使伦理变得更为诚实。对于传统伦理观念诸如道德心、可靠性以及责任我们并没有否定,只是扩展了它的内涵,也就是表达为道德不需要内部处罚,伦理并不需要通过一种“祛码”去获得,即使没有心理上的压力,我们也可以抑制自身欲望,并确保行为在道德的范围内。如果这仍不足以表达人类对智能体伦理的认识,那么我们是否要预设一个不同于传统伦理观点的新概念,也就是机器人伦理。