学术堂首页 | 文献求助论文范文 | 论文题目 | 参考文献 | 开题报告 | 论文格式 | 摘要提纲 | 论文致谢 | 论文查重 | 论文答辩 | 论文发表 | 期刊杂志 | 论文写作 | 论文PPT
学术堂专业论文学习平台您当前的位置:学术堂 > 哲学论文 > 伦理学论文

解决人工智能伦理困境的对策

时间:2017-02-25 来源:未知 作者:傻傻地鱼 本文字数:5429字
本篇论文快速导航:
题目:人工智能发展的伦理问题探究
第一章:人工智能技术的伦理困境研究绪论
第二章:人工智能技术概述
第三章:人工智能发展中面临的伦理困境
第四章:解决人工智能伦理困境的对策
结论/参考文献:人工智能伦理问题化解策略研究结论与参考文献

  第 4 章 解决人工智能伦理困境的对策

  机器人伦理研究研究的基本目的之一就是希望机器人能够具有伦理判断与行为的能力,使机器人的行为对人类更有利,其中最基本的手段就是对机器人进行伦理设计。从机器人伦理设计的角度看,是否该限制机器人对自身权利的要求?比如说自由权,试想一下,拥有高度自由权的机器人如何为人类服务?如果机器人拥有高度自由选择的权利,他们选择与人为敌岂不是让很多科幻电影中的情景变成了现实?如果人工智能发展到比人类智能更强大的地步,是否还会同意被人类统治?是否人类会被机器人统治?这些显然都是人类难以接受的,但并非不会发生,而笔者本人是宁可信其有,我们必须防患于未然。不管科幻电影里的场面是否会真实的发生,可由人工智能引发的伦理问题是确实存在的。面对这些伦理问题的出现我们必须坚持马克思人本主义的立场,从技术上、法律上、道德上、人类自身发展上以及监督管理上着手解决现实伦理困境,确保人工智能技术发展始终走在为人类谋取幸福的正确道路上。

  4.1 以马克思主义指导人工智能技术的发展。

  以实践概念为主线的马克思主义哲学高度重视和弘扬人的主体性,主体性原则是马克思主义哲学的基本原则。马克思主义哲学从人的实践活动出发,唯物辩证地阐释了人的主体性。

  4.1.1 坚持马克思主义科技观的基本立场。

  马克思说:"人作为对象性的、感性的存在物,是一个受动的存在物;因为它感到自己是受动的,所以是一个有激情的存在物。"关于马克思对于人的多个解释,我们可以明显的发现我们区别于其它动物的特点,当然也包括将来出现的强人工智能机器人,"一个激情的存在物"便是最有力的独家存在感。在这个世界上,没有任何另外一种生物或者产物可以取代人的地位,这个世界没有办法离开人独自存在。而"科学技术是人的创造物,是人类认识世界、改造世界的手段和工具。"所以我们在发展科技的同时务必要始终坚持人的主体性,而包括科技本身在内任何的科技产物都只能是客体。若在发展科技的过程中,颠倒了人和科技的主客关系,会使人在强大的科技力量面前唯命是从,不但妨碍我们正确的认识和运用科学技术,还会误导我们对科学技术消极影响的源头把握。

  人工智能作为科技界的一大新兴产物,在未来的数十年甚至数百年都可能长期占据着科技板块的新闻头条,越来越多的存在于我们生活中的每一个角落。作为这个世界的绝对主体--人,我们要真正的使人工智能技术与社会协调发展,是其长期的造福于人类,并要以人的合理需求为限度,发展以人为中心的技术。并始终坚持人工智能技术最高发展原则:以人为本。

  4.1.2 让程序语言融入哲学思想。

  技术缺陷和滥用是一种非常接近人类真实生活的风险。从技术角度看,计算机病毒,足以破坏现代人的正常生活。我们假设最坏的情况发生:智能机器人的谋杀,其中包含 2 种,一种是机器人控制,一个是杀手级机器人遥控器,机器人只是一个工具,由操作者承担责任,但如果纯失去控制它?这涉及计算机能力的问题。

  艾提克森认为,无法防止机器人的恶化,原因之一就是包括好的和坏的人都可以利用技术。就如我们担心人工智能另一种发展途径一样,随着计算机的小型化、芯片的广泛应用,许多研究人员在人工智能领域都把注意力放在人机结合,简单来说就是把芯片植入人脑。随着植入芯片的不断高阶化,人脑与芯片互相支持,谁主谁从很难说。这条路对于人工智能发展可能是条捷径,但也极具风险。

  首先出现的便是公正问题--谁能够植入芯片?撇开公正不谈,还有一个巨大的风险--写芯片程序的人可以控制任何被植入芯片的人,这比洗脑更直接。如果程序是负面的,后果不堪设想。

  至于技术滥用的问题,我们把它交予科学家道德和法律来解决。而技术缺陷造成的风险则需要我们从目前的人工智能底层技术做起,目前的人工智能技术还是依赖于计算机语言,无论从行为还是语言上都是这样。可就目前计算机语言的发展而言,编程时所产生的各种 BUG 都为人工智能将来的工作和社会融入埋下了负面的种子。这就需要我们在进行人工智能技术研发的过程中不断更新我们的编程语言,让程序语言融入哲学思想,让人工智能机器人越来越人性化的为人类服务,制造出更加自由、更加理性、更加有尊严的机器人。

  4.2 正确认识人工智能发展要求。

  在人工智能技术的发展过程中,无论是作为研究者创造者的科学工作者,还是作为使用者的普通民众,都要正确的认识人工智能技术发展的内在要求,坚持人工智能的发展不脱离"为人类服务"的宗旨,始终保持这门新兴技术的"向善性".

  4.2.1 增强科学家社会责任感。

  在小科学时代,许多科学家采取了科学对社会责任的中性的超然的态度,亚里士多德在《道德沦》(卷 10)中就写道:"思考理性问题的学者不需要这一切装饰品,它们或许会成为他思考的障碍。"然而,从早期到科学,科学,生产,科学和社会,科学与政治之间的关系变得非常密切。科学的影响越来越大,它不仅能极大地造福人类,但也能极大地伤害人类,甚至毁灭人类,爱因斯坦曾说过:"以前几代的人给我们高度发展的科学技术,这是一份宝贵的礼物,它使我们有可能生活得比以前无论哪一代人都要自由和美好。但是这份礼物也带来了从未有过的巨大危险,它威胁着我们的生存。"这样,科学家不仅对自己的工作和科学界的其他成员有一个道德义务,而且对整个社会的道德责任。科学家们不再可以说:我的工作就只是研究和发明,至于其应用所造成的道德后果,是政治家和管理者应该负责的,除了科学本身一切,我并不需要做什么。科学家们要对他们的研究、发明和创造的工作负起相当的道德甚至法律责任。

  对于飞速发展的人工智能技术,对我们人类社会的影响也是越来越大。就人工智能技术可能带来的消极后果而言,科学家们要从以下三方面做出表率。首先,科学家能够预测科学结果的社会和政治影响比任何人更科学,因为他们有一个特殊的知识。他们有责任向公众和政界说明这些结果。这是一种社会责任。其次,由于科学家的社会地位对公众具有特殊的重要性,所以他们可以在一定程度上参与并影响到政治家的决策。因此,这一领域的科学家对人工智能的应用具有一定的社会责任感。例如在一些推理技术对社会的影响,科学家们对不唇服务的后果的闲话。最后,当人工智能的某些项目对人类有害时,科学家们在一定程度上是有权利参加或退出这个项目的。在这里他们不能不作出道德的判断和道德的决策。联合国教科文组织在《关于科学研究着地位的建议》中就明确规定:"科学研究者在政府机构的支持下履行如下和享有如下权利……对于某些项目在人性、社会或生态方面的价值自由表达自己的意见,直至退出这些项目的研究,如果他们的良知这样决定的话。"可见在大科学时代,科学家必须要有自己的社会责任。对于人工智能这项敏感的技术更应如此,他们对课题选择、方法取舍、成果使用的后果不能不加以关注,事实也表明,他们对于人类幸福、人类未来愈来愈重要。

  4.2.2 提升民众知识素养。

  库兹韦尔将人类开率未来技术的影响分为三个阶段:说先是敬畏并惊叹于刻骨衰老问题的潜能;然后是害怕新技术带来一系列新危险的恐惧感;最后是认识到唯一可行和负责任的道路就是精心设计一种发展路线,然后实现好处,又能控制风险。

  现在许多民众都更愿意相信人工智能的"威胁论",这其中更不乏科技界的大佬们,比如物理学家霍金,他认为强人工智能成功实现的那天就是人类灭亡的时刻。公众的这种想法是可以理解的,毕竟几步科幻大片的剧情就是这么引领大众思维的,都出现了人类被机器主宰的场景。当然,对于此类情景我们固然是有担心的必要,但是我们要建立在了解这门技术的基础上再去做出科学的判断,而不是一味的畏惧和反对人工智能技术的发展。尤其是当生活中人工智能出错的时候,一些不负责任的媒体更是夸大其词,错误的引导民众。

  这就需要政府、学校、社区和科研机构共同努力,科普人工智能技术,让民众了解更多关于人工智能本质的知识,从而建立科学的判断体系。要让大家明白人工智能是一门向善的技术,他只是计算机科学的一个分支,按照目前的发展规划来看,我们是不允许其出现像科幻片里"反客为主"的场景。同时也要让民众了解人工智能将会带来的一系列伦理问题,不要盲目跟风,要理性的取舍,不给错误的言论或误读的信息形成舆论风暴的机会。要真正做到让民众了解人工智能,这样不但可以减少民众对于人工智能出现的伦理问题所带来的心理压力,减少伦理问题带来的负面影响,更有利于人工智能技术的健康发展。

  4.3 健全人工智能发展标准和监管制度。

  任何一门新技术的诞生、发展和使用都离不开一套完整的发展标准和科学的管理制度,这是保证科学技术"以人为本"的根本,面对人类日益强大的科研能力,人工智能的发展必将会在未来出现突破性的进展,强人工智能技术也将完整的出现在人类面前。鉴于人工智能技术的特殊性,我们不难发现,它给人类生存带来的威胁不亚于核武器,这就要求我们必须有严格的标准来要求人工智能的发展,并且要科学谨慎的监管其生产和使用过程的每个细节。

  4.3.1 合理规划人工智能发展路径。

  随着社会的不断进步,生态科学逐渐走入人们的视野,相对于其他对人类伦理观念产生影响的科学技术,生态科学堪称一枝独秀。工业革命之后的一个世纪以来,人类的生存环境承受着各种生态问题和环境问题的挑战,人与自然极不和谐。这种情况下,人类不得不在"大步向前"的同时,对发展进行反思,生态文明便应运而生了。生态文明的重要性已经被历史和现实,国内和国外反复证明,是关系到我国国计民生的大事。建设生态文明也为我党的十八大所提出,成为建设中国特色社会主义的重要环节。

  在我国不断加强生态文明建设的大环境下,人工智能技术如果能紧扣时代的脉搏,将生态化思想贯穿始终,将会给人类带来福音。具体到实践中,人工智能的技术突破也要体现人类生态文明的思想,对于生态环境有破坏的要予以取缔,对于不利于身心健康发展的人工智能设备要严格禁止,对于违背伦理道德的新发明要分析利弊,从而防止国际冲突,甚至战争。因为只有在技术的突破和发展上加以限制,才能真正使人工智能与生态文明相接轨。

  设想,如果我们对于一项即将开发的人工智能技术,明知道其副作用很大,可能会带来不良的后果,那么这种负外部效应会阻碍其正面的发展,而这些,归根结底是没有将各种伦理问题,同时也缺乏生态文明的思想,没有将二者牢牢结合起来。由此不难得知,生态文明建设中人工智能的重要地位。生态文明为我党十八大提高到很高的层次,这也使得实现中国梦,大力发展生态文明建设成为党和国家、人民的共识。

  像其他的高新技术一样,生态文明建设也将对人工智能技术提出更高的环境标准要求,这无疑是对人工智能技术的一种挑战,但同时也为人工智能的发展指引着正确的道路。人工智能技术若想更快更好的发展,就目前而言,务必要确保其发展与生态文明思想相结合、不违背生态文明建设的目标、始终与生态文明的观念相一致,只有这样的人工智能,才能有资格造福人类。

  4.3.2 科学管理人工智能产品的生产和使用。

  前文中我们提到的智能机器人将作为社会新成员出现,那么,既然要融入到人类的生活中,就必须有相关的法律条文对其进行行为的规范和限制。而反观人工智能技术本身,更是作为新兴技术进入到我们生活中,对于其使用过程中将会出现怎样的问题还都是未知数,这就要求我们对于人工智能技术的使用过程严格把关,要实时监测其运作的每一个环节,防止造成不可挽救的后果。

  首先,机器人立法,主要的内容是对机器人和人工智能科学技术方面的发展和应用的进行规范,一是要对机器人的生产、销售、使用进行规范,二是要对人工智能特别是所包含程序的事先审查建立法律规范和相应的组织,防止恶意程序,更要防止机器人网络化后的程序编写和程序接入,对参与人的身份进行管理和准入等。这属于事前立法,因此要有一定的前瞻性,通常法律会阻碍科学的发展,因为法律本身的目的之一便是风险的防范,不但要防止坏人做坏事,也要防止好人做坏事(比如钢铁侠创造的奥创,本意是用来组建一支代替神盾局的钢铁军团,却成为了地球最大的威胁)。

  机器人立法,要对机器人未来的发展铺平道路,使科学的发展能够持续的为人类服务,最重要的一方面,就是防止造成损害,特别是人类不可控制的发展局面,相应的法律需要尽快的制定,虽然那一天还没到来,但随时可能会到来。

  科学发展慢一点可以,但科学如果是无序的发展则会成为灾难甚至会使人类灭亡,人类应当借鉴互联网法律远远滞后的沉痛教训,下一代机器人的危害可能是毁灭性的,需要提前预防,应当尽早给人工智能的机器人制定"法律",给从事这些工作的人制定法律。

  而在人工智能产品的使用过程中,极有可能变成人们所担心的那种情况,但是人类的责任就是不让那一幕发生。我们给每个智能机器人设定唯一的识别码,实时跟踪它们的一举一动,若机器人在任何环节出现了编程人员没有设定的动作或其他行为,就要第一时间对其进行控制,防止它们对人类造成伤害。同时,也可防止别有用心者对人工智能的山寨化,就好比我们所经历过的山寨手机一样,一部装满了流氓软件的手机,目的就是窃取使用者私密信息,造成人身和财产的损失。我们要确保每一部智能机器的上市销售到使用,都是通过政府部门的监管,经过相关部门的授权的,这样才能确保人工智能技术的良好运用,防止更多的伦理问题出现。智能化系统一定会有其代价和缺点,但人能设计智能化,就能设计出管理智能化系统的智能化方案。

  每一项新科技的诞生,对于科技本身而言都是无害的,当然包括我们的人工智能技术。而重点就是人类如何正确的对待它,如何正确的运用它,如何科学的管理它。

    相近分类:
    • 成都网络警察报警平台
    • 公共信息安全网络监察
    • 经营性网站备案信息
    • 不良信息举报中心
    • 中国文明网传播文明
    • 学术堂_诚信网站