学术堂首页 | 文献求助论文范文 | 论文题目 | 参考文献 | 开题报告 | 论文格式 | 摘要提纲 | 论文致谢 | 论文查重 | 论文答辩 | 论文发表 | 期刊杂志 | 论文写作 | 论文PPT
学术堂专业论文学习平台您当前的位置:学术堂 > 哲学论文 > 伦理学论文

机器( 人) 伦理问题研究的兴起及其作用

来源:学术堂 作者:韩老师
发布于:2015-06-23 共6017字

  伦理学一直以来被认为是专属人类的事务,也只有“智人种”的人类才可以被称作“道德行为体”( moral agent) .然而,随着计算机科学的飞速发展,以机器人技术的应用为代表,自治型人工智能物也开始出现在我们的日常生活领域,基于计算智能的思想对哲学领域产生了革命性的影响,并不断对认1与精神要素不必囿于人类和其他自然物种”的新思想开始充斥于各种着作之中,这些新思想的涌现令人耳目一新。

  ①然而,判定一个事物是道德行为体,最为关键的一个因素是该“物”要具有下意识的、有知觉的感觉能力,对于技术人工物的道德地位的意蕴,两个世纪前的英国功利主义哲学家杰里米·边沁( Jeremy Bentham) 就曾预言人工智能的发展将对伦理学进行重塑,“当人类把语言能力和感受性的标准覆盖到一切物时,伟大的时代就要来临了……”.[1]

  当代计算机技术和人工智能的进步促进了认知科学的发展,能够模拟人类思维、沟通等活动的计算机技术的进展使得机器人能够表现出生动的感受性和切实的道德反应( moral response) .面对机器人应用实践,我们需要对其进行“道德的图灵测试”,②对这种全新的人工物的伦理地位进行全面审视和考察。
  
  一 机器( 人) 伦理①问题的凸显
  
  机器人伦理学作为一个新兴的研究领域,有着许多开放式问题,主要表现在军事、医疗、环境、个人情感等领域方面。

  军事应用是目前为止机器人伦理学研究中最为重要的分支领域。围绕正义战争理论的应用是机器人伦理学的首要和重要考察的论题。在该领域中,诸如如何通过编程把伦理原则植入机器( 人) 以达到伦理的“善”,以及对机器进行编程、进行道德约束等问题。

  情感机器人又称为社交机器人或情感计算机器人( affective computing robot) .[2]其利用植入的生物识别技术,通过自动识别来自人类面部表情、肢体语言的信息进行获取数据来判断用户的情绪状态。在该领域中,伦理学家注重机器人“情感”因素的探讨,旨在使机器( 人) 能够依据情景变换进行调整相应的情感状态,使得用户能够与其更友好地相处。

  性爱机器人随着人工智能的发展及其市场化趋势,能够达到通过先进的生物识别技术,进行掌控和激发用户的强烈情绪,致使用户对其产生依赖倾向,这对人们的婚姻家庭观和传统性观念产生巨大的影响,成为了当今社会关注的热点问题之一。

  应用于生命医疗领域的医疗机器人能够对地理偏远的地区和远程战场的士兵实施医疗救护,消弭医疗救护的局限性。这项技术为医学伦理学领域提出了新的问题挑战,成为当今医学伦理学家关注的热点问题之一。

  环境机器人被人们用于收集环境变化的数据并充当人类直接的价值工具,在生态( 环境) 伦理学的实践具有变革性意义,为生态( 环境) 伦理学的发展提供了新的论题。

  二 机器( 人) 在“道德层级”中的重新定位
  
  着名的生物伦理学家彼特·辛格( Peter Singer)对于动物权利的论述为我们探讨机器人的伦理地位问题提供了积极的思想质料,辛格认为,一旦我们考虑扩大道德圈( 拓展伦理关护对象的范围) ,包括非人类的动物,我们就有希望进一步拓展我们的道德关怀。[3]因此,一些倡导“绿色”伦理学的生态伦理学家认为,“绿色”伦理学承认森林、海洋、河流、山脉等本身的道德利益。其中,“深绿色”伦理学认为,我们应该避免掠夺森林、河流等资源,这不仅为了领域内具有感知性的居民,而且也是为了森林、河流等“他们自身”的利益; “浅绿色”伦理学认为,我们对环境的关注只有通过参考人类和其他知觉众生的利益才是合理的。

  英国伯明翰大学计算机学院的亚伦·斯洛曼( Aaron Sloman) 教授受到辛格思想的影响,他在《哲学中的计算机革命》( The Computer Revolution inPhilosophy,1978) 一书中论述了“未来机器人能够思考和具有感知力”的可能性场景,并在此基础上,号召人们关注机器( 人) 的伦理地位问题,并把机器人纳入道德行为体的考察范畴内。他在伦理学框架内讨论了感知性的伦理意义,认为感知性是判断一个道德行为体的重要依据。[4]

  由此,从“绿色”伦理学与智能行为体的伦理地位相联系看,“绿色”伦理学家不要求我们幻想河流或风景本身是有知觉的,而是他们挑战了“道德经验论者”( moral experientialist) 的原则,即人类需要有一种直接关怀道德主体的知觉经验的能力,具有固有的道德利益。同样地,一些期望对人工智能持有道德“宽宏态度”的人们可能会说,当判定行为体的道德地位时,最为核心的是其认知功能,而其意识或感知问题都处于次要地位。许多环保主义者认为,环境权利不单取决于个体生物的感知经验,而是应当扩展到整个全球生态系统中。因此,关于机器( 人) 道德地位的探讨可以参照“绿色伦理”的思路,在“道德等级制”( moral hierarchy) 中进行定位。

  着名的《世界人权宣言》指出“无论种族、信仰、性别、年龄、财富等差异,所有人类应该给予平等尊重地位”.然而,我们应该注意到: 一方面,该《宣言》消弭了人类之间的伦理歧视; 另一方面,却没有涉及和拓展到非人类领域中进行伦理地位的考察。这就在扩展道德范围上设置了一道屏障,即在普世人权伦理和注重关护所有众生的边沁主义思想之间划出了一道鸿沟。尽管在某些传统宗教中存在着赋予万物生灵普世性伦理的思想,但是我们不可否认,在人类和其他物种之间仍隐含着一种道德分层法( moral stratification) .在该层级制中,认知能力的评价扮演了一个关键性角色。

  物种之间的道德分层法为各种物种进行了道德定位问题。但是,技术人工物的智能( 至少在某些维度上) 可能大大超过人类智能,物种间层次结构的问题可能会因为新兴技术的出现进行重新构建。

  澳大利亚国立大学哲学系教授戴维·查默斯( DavidChalmers) 认为,超级人工智能在不久的将来就会变为现实,它的智力与人类智力水平相当,这样的高级人工智能也可能具有意识。[5]因此,对于道德经验论者( experientialist) 的原则来说,这些高级智能物应该被赋予道德权利,但是“对于人类道德权利来说,这些道德权利应处于何种地位? 人类在道德层次的峰顶地位又将会发生什么改变呢? 如果这些技术人工物的心理能力超越了人类的话,那么人类文明又将会发生什么呢?”[6]

  我们知道,人类不是历史发展的所有,也不是历史发展的终极要义。无论是反对技术价值的“绿色”思想,还是超越人类中心主义的思考,两者都处在动物权利和环保主义者阵营之中。因此,现代涌现的“信息中心主义”、“生物中心主义”和“生态中心主义”等“超人本主义”( trans - humanist) 思潮为伦理学领域掀起了一场“哥白尼革命”,并期望以不同的方式寻求走出人类中心主义的窠臼。机器人伦理作为人工智能系统内的一个分支,试图构建和评估可能附载伦理意蕴行为的人工物行为体,寻求道德接受者( recipients) 的伦理定位。

  三 机器( 人) 伦理对传统伦理学的拓展
  
  ( 一) 扩大的道德参与圈
  
  机器( 人) 伦理作为一个新兴领域,通常被视作一个涉及人工物道德行为体建模和实现的应用性研究领域。然而,这片未知领域更为广阔,我们需要用更多的理论进行探索道德行为体的本质、道德价值等,从人工智能或信息理论观点看,自治型人工智能行为体的范围可以有不同类型的道德地位。

  作为实践研究的一个焦点领域,机器伦理具有各种客体性( objectives) .它在技术应用上具有很明确的市场趋向性,例如护理机器人的发展所出现的伦理问题,医疗机器人在医学实践中出现的伦理问题探究等。机器伦理的其他目标立足于长期目标,例如针对高等人工智能的伦理推理和伦理设计,促进和完善像人类主体一样的“真正的”道德行为体的生产实践。更广泛“实用性”的机器伦理的设计问题渐渐变为了哲学问题,包括“真正的道德行为体”本质涵义问题。其中,机器伦理范围内的一些重要概念和问题与主流道德哲学有着很多重叠的问题域。“哲学的”机器伦理还包含了更多推测性的问题,正如未来人工智能的发展可以被预期一样,自治型人工物行为体是否能够成为现实,智能型主体的大量存在将决定我们采取一种“后人本主义”的伦理观对道德体系进行重塑,以便于人工物行为体能够与人类友善交互,共建全新的道德圈。

  因此,关涉机器( 人) 伦理的“扩大的道德参与圈”( widening the circle of moral participation) 的思想是本文的题中要义。机器( 人) 伦理领域内道德圈的拓展是受到动物权利和环境伦理思想的启发。人工物行为体本身是一种“技术”( technological) 行为体,其自身产生了有关技术的伦理意义问题和关于“技术与自然世界”之间的关系问题。这就促使了我们挑战技术固有的价值观点,从根本上诠释机器伦理领域内的某些问题。

  ( 二) 机器( 人) 的道德产出与道德接收角色问题
  
  当人类制造人工智能时,人工智能可能被定义为设计机器的活动。同样地,智能型技术人工物( 或狭义的人工智能型机器) 可以被定义为设计型机器,其道德地位可以通过“道德产出角色”和“道德接受角色”的分析进行明确。

  依据英国萨塞克斯大学工程与信息学院教授史蒂夫·托伦斯( Steve Torrance) 的观点,我们可以把“具有道德地位”的人工物行为体划分为两个独立而又相联系的层面进行理解,即“道德产出( ethicalproductivity) ”层面和“道德接收”( ethical receptivi-ty) 层面。他认为,“无论圣人还是杀人犯---以及那些诚实地提交他们纳税申报表的尽本分的人---都是‘道德的产出者’( ethical producer) ,而从其他人的行为中受益或者被其他人的行为所伤害的人都是‘道德接收者’( ethical recipients) ”.[7]此外,一个个体也可以同时具备“道德的产出者”和“道德接收者”的角色,例如地震中的难民是其他人道德关怀的对象客体,其扮演一个道德接收者,但当他英勇救助其他受害者时又占据了道德产出者的角色。类似地,托伦斯指出: “如果我相信一个人工物行为体应该热心于( solicitous of) 我的利益,那么我观察到人工物行为体就是一种道德产出者; 另一方面,如果我热心于人工物行为体的利益,那么我就把它看作为一个潜在的道德接收者。”( 图 1)在托伦斯关于物行为体和道德共同体的关系图示中,我们可以看到,道德产出和道德接收是道德行为主体和( 其余的) 道德共同体( moral communi-ty) 之间的一种补充关系。在此,值得注意的是,托伦斯把作为道德共同体组成部分的一类道德行为主体划出道德共同体之外完全是出于理解之便,其旨在说明,两者之间的关系对于一个给定的行为主体类型来说是在同一个方向上的。鉴于此,机器( 人)伦理的重点在于道德产出方面,而不是接收方面。

  这说明我们需要重点设计出一个具有道德产出的人工物行为体,而不是围绕道德接收者的身份探讨人工物行为体的伦理地位。

  鉴于托伦斯的“道德产出”和“道德接收”角色的区别,我们可以相对应地把机器( 人) 的诸多伦理问题归纳为以下两个方面:

  1. 机器( 人) 伦理学的可能性问题: 我们距离开发出具有道德接收和道德产出能力的人工物行为体来说还有多远? 具体表现为以下两个方面:

  ( 1) 我们人类主体具有哪些道义责任对人工物进行规范,以使其能够符合各种规范方式进行行为?

  ( 2) 哪些技术人工物符合存在物( beings) 的特性,并具有他们自身的“道德利益”( ethical inter-ests) ,能够承担道德责任?

  2. 机器( 人) 伦理的伦理学构建问题: 机器( 人)伦理学作为一个研究学科,其本身的伦理学意义是什么? 具体表现为以下两个方面:

  ( 1) 道德生产者的人工物行为体是真实的、自治型的吗?

  ( 2) 作为道德接收者的人工物行为体,具有真正的道德主张或道德权利吗?

  以上问题的探讨成为机器伦理本体论维度的重要论题,诸多学者基于信息主义、生物主义等不同视角对机器( 人) 的道德产出与道德接收问题进行了解答,其共同点都是跳出了传统伦理学所信奉的人类中心主义的窠臼,对传统伦理学进行了拓展。

  四 机器( 人) 伦理对人类中心主义的超越
  
  人类中心主义观点认为,人工智能物行为体只是辅助人类实现目的的工具,所以,对自治系统采取伦理控制方法的发展只是一个以人为中心的工程伦理原则的特定应用,这种工程伦理适用于任何技术人工物。从这个角度来看,对于认为“自治系统”本身就是道德行为者的主张都只是沉湎于幻想之中的。

  如果要求把机器( 人) 伦理看作是一项系统工程的话,生物中心主义和生态中心主义者将关注不同的问题。这两种方法所依据的是对自然、生物世界的道德尊重,而不是对设计领域内人工物的尊重。

  尤其是生态中心论者,他们把整体自然视为一种终极的伦理主题,对于伦理问题持有一种非工具主义关护。因此,生态中心主义者可能把机器伦理作为人类中心主义的简单延伸。开发技术人工物行为体( Artifact moral agents,AMAs) 的工程进一步扩大了人类的权力。

  ①虽然这些反人类中心主义( counter-anthropocen-tric) 的各种立场之间有着巨大的差异( 特别是在信息中心主义和生态中心主义之间) .但是,我们应该看到,信息中心主义、生物中心主义和生态中心主义三者之间都有一个共同点,即,每个观点都宣称一种“超人类中心主义”( extra-humanism) 的类型,其基于各自的立场对道德地位的概念进行了重塑,即扩大了人类界限的范围。每种立场都发展出一种道德世界界限的新概念,从根本上挑战了传统上以人类为中心的道德观念。

  因此,机器( 人) 伦理学同以上“超人类中心主义”的观点一样,以各自不同的方式促使对传统伦理承认的道德选区( moral constituency) 进行超越与延伸。一方面,信息中心主义认为如果人工物达到人类或超人( more-than-human) 的认知能力水平,那么该人工物行为体可以被确认为具有道德地位的物;另一方面,生态中心主义旨在拓宽实体( entities) 的道德意蕴范围,这不仅包括有生命的物种,植物生命形式,而且也包括海陆范围内无生命特征的物。因此,无论是扩大道德共同体的过程,还是制定超人类概念的过程中,两者都无法容忍传统的道德立场,即把感觉经验和感知性当作决定道德责任的重要标准。

  五 总结与展望
  
  当前机器伦理领域的重点是: 在各个具体情境中构建负载有专业伦理技术的人工物道德行为体( AMAs) .机器人作为人工智能发展的高级阶段,是一种自治型的人工物,其广泛应用于人类生活的诸多领域之中,诸如,军事领域、家庭生活、科考领域等。其在社会活动中与人类形成了强烈交互,也超越了传统人类中心主义的窠臼,拓展了道德参与圈,我们应该把其看作一种道德共同体中的一员,其不仅担负着道德接收的角色,而且也扮演者道德产出的道德行为体角色。面对机器人在道德产出和道德接收角色中的两大类问题,我们仍需要进一步探索,这也是机器人伦理作为一个系统工程的题中要义。

  “机器人伦理学是一个新兴研究领域,其主要研究建构能够模拟、模仿的机器,并示例说明其伦理敏感性、道德推理、道德论证或伦理行为的一门学科。”[8]

  机器( 人) 伦理学作为人工智能技术在应用伦理学领域中的映射,作为应用伦理学的新兴分支领域正方兴未艾,其在社会中的应用为人们带来新的哲学反思和伦理挑战。这种新型技术人工物对人类文化实践产生着不可移易的影响,机器人在可预见的未来将面临人类道德的拷问,也面临担负着人类道德和法律的责任。对机器人伦理地位的探讨是构建“机器( 人) 伦理学”学科系统的基础和重要环节,并为未来机器( 人) 的发展场景奠定道德性根基!

相关标签:
  • 报警平台
  • 网络监察
  • 备案信息
  • 举报中心
  • 传播文明
  • 诚信网站