无人驾驶汽车技术的伦理考量与规制策略毕业论文
2020-03-05 13:13:40
摘 要
现代科学技术在带给人类诸多快捷和便利的同时也潜伏着种种危机,如何引导科学技术的发展为人类社会带来正面效益并克服其中隐藏的威胁是一个历久弥新的课题。随着当前人工智能科技的迅猛发展,它在人类社会生活中得到广泛和深入的应用。特别是,将人工智能技术应用到无人驾驶汽车领域正在深刻地改变着人类的交通方式和日常生活。
无人驾驶汽车是集自动控制、体系结构、人工智能、视觉计算等众多技术于一体的计算机科学、模式识别和智能控制技术高度发展的产物。它利用车载传感器来感知车辆周围环境,自动规划行车路线,并能根据感知所获得的道路、车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。尽管无人驾驶汽车技术可能还有更大的突破,但是它所带来的伦理风险不得不引起我们的关注。例如,无人驾驶汽车能成为一个道德主体并做出合理的伦理决策吗?一旦它产生严重的社会后果,它能够承担相应社会和法律责任吗?显然,这些伦理风险需要我们预先采取各种可能的方式进行规避。
本研究从无人驾驶汽车可能产生的伦理问题出发,在借鉴国内外学者对于该领域的相关研究成果的基础上,试图探索一种兼具可行性和开放性的解决策略。论文一共分为四章:
第一章是绪论,主要介绍选题的背景及其意义、国内外研究现状、研究的思路与方法,以及研究的重难点和创新之处。
第二章主要梳理了无人驾驶汽车发展的历史和现状,并分析其未来发展可能产生的伦理风险和挑战。
第三章讨论了目前解决这种伦理风险的两种主要进路及其存在的困难,两种进路分别是:(1)自上而下进路,也即预先将人类成熟的道德理论和伦理规则嵌入无人驾驶汽车的程序中以指导其作出伦理决策;(2)自下而上进路,也即开发相应的程序使无人驾驶汽车能够进行自我学习从而自觉作出道德判断。这两种解决方式都存在各自的困难。
本文最后一章从法律强制与个体选择两个方面相结合来探讨解决无人驾驶汽车伦理问题的可能途径,并对包括无人驾驶汽车在内的人工智能机器的道德主体性能力做出深入反思。
关键词:无人驾驶汽车;人工智能;伦理决策;规制策略
Abstract
In today’s world, modern sciences and technologies provide convenience and efficiency for us. Meanwhile, the rapid development of artificial intelligence could expose our society to danger. It is an everlasting question about how to make full use of the positive consequence and minimize the side effect of it during this era of technical revolution. With the significant progress that artificial intelligence makes, this technology would be applied to nearly every aspect of our life. Especially once when we successfully combine artificial intelligence with driverless cars, our cognition towards road transportation would be changed dramatically.
Based on computer science, pattern recognition and intelligent control, the driverless car is a product powered by automation, architecture of control system, artificial intelligence, visual computing, etc. Driverless cars can do path planning individually, as long as it equips the latest global position system (GPS). However, there are two technical problems that impede a driverless car driving automatically. One is identifying surrounding region by its vehicle sensor, so vehicles are able to obtain information of obstacles and other members on the road. The other is real-time analyzing; it makes vehicles take corresponding actions according to specific transportation circumstances, for example, slow down when it is raining. These two processes group into a trajectory planning which refers to a technique of motion planning and control techniques. Only if these techniques are inserted into self-driving vehicles, can it be safe and reliable. Even though it would have a further perspective, the ethical risks concealed beneath the benefit should be attended to. we doubt that is it reasonable for a driverless car being a moral subject? Can it make reasonable ethical decision? Once the decision leads to a negative consequence, how can a vehicle bare legal liability? Obviously, we would better pay attention to the negative effects that may exist, and take corresponding measures to avoid losses.
This study elucidates ethical risks that may exist during the improvement of driverless vehicles. This thesis attempts to find practicable and unconstrained solutions to these ethical problems, which are based on the experience of domestic and overseas studies. There are four chapters in this study.
The introduction, which is the first chapter, illustrates the background, significance, methods, main emphasis, difficulties and innovations. Meanwhile, it also summarizes correlative studies both from domestic and overseas.
The second chapter includes the history and the state of driverless vehicles and analysis of risks and challenges among further developments in artificial intelligence and automatic driving system.
The third chapter illustrates two mainstreams in ethical decisions of driverless car. One is the top-down approach which is a strategy of setting ethical principles into automatic driving system in advance in order to correct automobile’s behaviors. The other is the bottom-up approach which is a method by developing software so that it can allow automobile’s self-study and moral judgments. However, both of them have their own difficulties.
The last chapter is about giving feasible solutions from two different aspect: law enforcement and individual selection. And finally the moral subjectivity of artificial intelligence machines, including driverless cars, will be revisited.
Key words: driverless vehicle; artificial intelligence; ethical decision; rules and regulations
目 录
摘 要 I
Abstract II
第1章 绪论 1
1.1 研究背景及意义 1
1.1.1 研究背景 1
1.1.2 研究意义 1
1.2 国内外研究现状 2
1.2.1 国内研究现状 2
1.2.2 国外研究现状 3
1.3 研究的思路与方法 4
1.3.1 研究思路 4
1.3.2 研究方法 5
1.4 研究的重难点和创新之处 5
第2章 无人驾驶汽车技术的发展与伦理挑战 7
2.1 无人驾驶汽车发展的历史轨迹 7
2.2 无人驾驶汽车技术的发展现状 9
2.3 无人驾驶汽车技术的伦理风险 10
第3章 无人驾驶汽车技术伦理考量的两种进路 12
3.1 自上而下的进路 12
3.2 自下而上的进路 13
3.3 两种进路存在的问题 14
第4章 无人驾驶汽车技术的伦理规制策略 17
4.1 法律强制策略 17
4.2 个体选择策略 19
4.3 人工智能机器的道德决策反思 21
结 语 24
致 谢 25
参考文献 26
附录 29
第1章 绪论
1.1 研究背景及意义
1.1.1 研究背景
无人驾驶汽车技术的概念起源于20世纪70年代的美德等欧洲发达国家,并在近几十年中取得众多技术突破;我国首台无人驾驶汽车也在上世纪末90年代研制成功。进入21世纪后,无人驾驶技术在科技革命的助燃下勃发,尤其是现代科技之源的计算机推动下的人工智能技术,使得无人驾驶技术有了新的生命力。现代无人驾驶汽车依托成熟的汽车制造工业技术,以传统汽车为硬件载体,搭配计算机芯片为内核,以人工智能的程序为软件支持,构成了现代无人驾驶汽车。现今的无人驾驶汽车与上世纪末相比有了质的飞跃,不仅能完成无人驾驶这一任务,在安全性、智能化、人机交互等方面带给用户全新的体验。目前人工智能的发展速度已经超出人类对它的预估,在法律法规、伦理规制、政策取向等方面处于滞后状态,人类社会在人工智能的挑战之下处于极大的不确定性的风险中,对于以人工智能为核心的无人驾驶汽车,人类应该如何对待它,从而让它健康有序地服务人类,我们应该有所准备和思考。
无人驾驶汽车技术经过几十年时间的发展,目前已取得技术上的突破,并成功以辅助驾驶系统的形式参与到了汽车驾驶之中,有效的降低了汽车驾驶的危险系数。但真正的实现无人驾驶还需要人工智能、互联网等科学技术与伦理规制结合起来,无人驾驶汽车只有成为了道德代理人才能真正实现自主驾驶。
无人驾驶技术中存在的伦理问题是人工智能科技发展之路上无法回避的,人工智能程序在面临例如“电车难题”和“隧道难题”这类的伦理难题时,究竟如何做出选择;在不可避免出现伤亡的情况下,无人驾驶技术系统会优先保护车内人员还是车外人员,以及造成事故究竟由谁负责,是研制技术的公司,还是购买产品的用户,亦或是例如没有遵守交通规则跑到道路中间的孩童?这些问题使我们不禁想到人工智能究竟是否有能力解决这种伦理困境难题,是否有资格将它当做人类同等看待以及取代人类作为汽车的“驾驶员”。对无人驾驶汽车技术的伦理问题的研究可以深化和促进我们对一般的人工智能技术的理解和认识,并且有助于我们思考其他的人工智能交通工具(如无人驾驶船舶、无人机)的相关伦理问题,同时提出无人驾驶汽车技术的伦理考量及相关对策也可以扩展并应用于其他的人工智能产品。
1.1.2 研究意义
在无人驾驶技术商业化之前,人工智能必须要解决伦理困境难题,实现这个目标有两种选择;第一种是人机切换,即在汽车处于无人驾驶状态下时,当出现紧急情况,立即切换至人工手动操作,将驾驶权交还给驾驶人,但是这种解决方法不符合无人驾驶汽车的发明初衷,因为使用者不得不随时准备接管汽车以面对突发事件,同时,在紧急情况下,是否有足够的时间来进行人机互换,即使驾驶者接管了汽车的驾驶权,他能否处理好突发事件,达到最优抉择。在笔者看来这种人机切换的方法不足以解决无人驾驶技术的伦理抉择问题,同时也不符合无人驾驶技术的发展趋势。第二种解决方法则是保证无人驾驶汽车实现零碰撞,即无人驾驶汽车能够通过人工智能的判断和抉择在突发事件中实现最优结果,既保证车内人员的安全也保证车外人员的安全,事实上目前最先进的仪器和系统也无法达到这一预期,在动态的复杂的驾驶过程之中,系统并不能完全规避驾驶道路中突然出现行人和驶入的非无人驾驶汽车,但是笔者认为这是问题解决的唯一方法,即使目前的各方面技术还不能达到这一要求。对无人驾驶汽车技术的相关伦理问题及对策的研究有利于在实际开发和应用无人驾驶汽车过程中促使技术专家和决策者更加审慎地认识到新技术带来的不确定性风险,增强伦理的敏感性,从而更好地保证这种新技术更好地发展并给社会带来整体福利。
1.2 国内外研究现状
1.2.1 国内研究现状
我国对无人驾驶技术伦理问题的研究上,有人工智能和汽车工程领域的学者从技术层面上分析人工智能应用于汽车驾驶的可能性、可行性以及面临的挑战,例如孙伟平[1]、端木庆玲[2]等学者认为无人驾驶技术尚未达到完全自动驾驶的阶段,目前的无人驾驶技术只能作为辅助驾驶系统参与到驾驶员的行车过程之中,起到安全便捷的辅助作用,实现完全的自动驾驶还需要解决自动寻径,车联网环境信息识别等技术难题,同时也需要政策和法律的制定和实施作为保障前提。
另一方面,国内的一些学者也从哲学、伦理道德的方面对无人驾驶汽车技术做出了思考,在无人驾驶过程中出现的伦理抉择的独特性与现实性,人类社会所认同的主流伦理道德价值观念能否应对无人驾驶汽车技术带来的伦理抉择难题做出相应性的改变是有待讨论的。
无人驾驶汽车技术日渐成熟,人工智能的可靠性与意外事故的发生之间产生的矛盾冲突,对于道德伦理判断和道德责任承担提出了新的挑战。另外,对于人工智能能否达到甚至超越人类智能这一问题,国内学者也提出了看法,例如王晓阳提出尝试构造出一个基于集体人格同一性(collective personal identity)的全新论证理论,他表明:首先,该问题在原则上无法从仅有的经验科学的框架中得到直接有效的解决;其次,该问题实际上是一个没有概念认知意义的问题;最后,如果该问题不存在概念认知上的意义,那么人工智能研究的一个重要研究对象,即“生产出一种新的能以人类智能相似的方式做出反应的智能机器”,恐怕也无法实现。[3]张劲松也主张人工智能无法复制、模拟和超越人类主体,他认为人工智能一方面通过符号和机器对简单的、线性的逻辑思维进行复制和应用,从而强化和提升人类的思维能力,另一方面借助各种感官的仿真机器和人工神经网络对人类的感性存在进行模拟,从而使机器具有与人类思维类似的记忆、学习、推理和联想等能力。然而,人工智能在思维能力上无法超越人类思维和意识的整体性,对于感官和人脑的模拟仍处于机械化阶段,更不能产生人类主体性所依赖的社会关系和实践基础。[4]
此外,还有学者例如殷杰从机器人的语境论范式分析了智能机器人研究已有的分级范式、反应范式和慎思/反应混合范式三种范式,指出制约人工智能机器人学范式发展的核心问题,在于如何解决智能机器人在复杂环境中的任务处理。以现有范式中存在的问题为基点,提出了构造网络化语境论范式,以及“网络智能系统 智能机器人”的智能结构模式。[5]
1.2.2 国外研究现状
国外学者在应对无人驾驶汽车技术出现的伦理问题上有不同的理论和解决路径的出现。首先,一些学者主张通过技术的提升来解决相关的伦理问题。例如当代著名的荷兰技术哲学家维贝克(Peter-Paul Verbeek),在汽车处于无人驾驶情况之下,由于汽车的强大计算能力和大数据分析的优势,通过对具体的影响因子的实时量化与计算,从而制定出具体的行车方案,这样,用户在突发情况出现时,在极短时间内作出的本能反应在理论上可以被极速且精密的软件运算所取代;而这种程序上的软件运算则是通过人类价值观念的植入具体表达在无人车上的。由于这类道德程序代码的编写,其本质上是由当前特定的社会主流价值观念主导的,反映的是人类社会主流的价值判断和理性抉择。简言之即为,驾驶中,道德抉择程序的编写延长车辆了应对事故所需要的时间,从而使得在处理突发事件上获得了“时间差”。[6]此间,理性和道德推理的相互融入成为可能。但是融入理性和道德推理的程序设计超出了编程技术的层面,而更多的涉及伦理层面。既然技术在人的认知和行为上发挥着中介调节作用,那么设计活动就天然地蕴含着一定的伦理意义。
对于如何设定体现人类社会主流伦理价值的“善”的程序,另外一些学者提出从编程技术上突破,使计算机持有人类社会相同的道德伦理取向。如瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)在2009年提出,他们认为应该使计算机具有道德推理功能的主张,[7]以及安德森(Michael Anderson)等人在2011年提出关于专门为智能机器创造伦理理论,并使之自主地作出合理的伦理决定的看法。[8]同时也有一些国外学者认为,通过更高层次的价值标准可以解决处于同一共同体的成员之间最根源的价值冲突,并且能将他们统一起来,和谐统一,相互协调一致,例如布兰德(Richard Brandt)和黑尔(Richard Hare)就在1998年提出了这一理论。[9]