文档库 最新最全的文档下载
当前位置:文档库 › 工程伦理

工程伦理

工程伦理
工程伦理

人工智能伦理

摘要

20世纪60年代,一门科学-人工智能悄然兴起。在第二次浪潮期间,机器学习成为主流,计算机逐渐能够自我学习、自我编程,可以用来解决更复杂的任务。此外,计算能力的提升,包括现在的量子计算机,以及越来越普遍的大数据,对人工智能的作用和价值也非常大,使得更复杂的算法成为可能1。在应用层面,从语音识别、机器翻译到医疗诊断、自动驾驶,人工智能应用在不断加深、不断成熟,甚至已经开始超越人类。但是本质上来说,很多机器学习系统目前还是“黑盒子”,他们的创建者知道它们在运行,但无法清楚解释它们为什么会做出某些特定的决策。所以人们在享受人工智能带来便利的同时也为其带来的威胁深感担忧。工作替代、人文伦理、物种进化、人类存亡、人工智能大战……一系列“人工智能威胁论”逐渐在社会中传播开来。同时人工智能做出的决定要谁来负责?这些问题都从伦理上冲击大众的内心,大家不得不认真思考人工智能与社会伦理之间的关系。

关键词:人工智能;自我学习;社会伦理

ABSTRACT

In the 1960s, a science-artificial intelligence emerged quietly. During the second wave, machine learning became mainstream, and computers gradually became self-learning and self-programming and could be used to solve more complex tasks. In addition, the increase in computing power, including today's quantum computers, and the increasingly widespread use of big data, has also had a large role and value for artificial intelligence, making more sophisticated algorithms possible. At the application level, from the perspective of voice recognition, machine translation, medical diagnosis, and automatic driving, artificial intelligence applications are constantly deepening and maturing, and have even begun to surpass humanity. But in essence, many machine learning systems are still "black boxes," and their creators know that they are running but cannot clearly explain why they made certain decisions. Therefore, people are deeply worried about the threat they bring while enjoying the convenience of artificial intelligence. Job substitution, humanistic ethics, species evolution, human survival, artificial intelligence battle... A series of “artificial intelligence threat theory” gradually spread in society. At the same time, who is responsible for the decisions made by artificial intelligence? These problems have ethically impacted the hearts of the general public. Everyone has to think seriously about the relationship

between artificial intelligence and social ethics.

Keywords: artificial intelligence; self-learning; social ethics

前言

人工智能是一种具有巨大社会和经济效益的革新性技术。与此同时,人工智能是一门正在迅速发展的新兴综合性很强的学科。人工智能的英文原名是Artifical Intelligence,简记为AI。国内也有人主张将AI 译为智能模拟。在国外还有人主张用Machine Intlligence(MI.机器智能)一词来称呼人工智能这一研究领域(例如在英国),但在国际上主要还是用人工智能这一术语2。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能属于计算机科学的一个分支,它通过了解智能的实质,以生产出能够用类似人的思考方式的机器人,该领域可细分为机器人外观、语言识别、图像识别、语言处理和专家系统等模块。人工智能学科自上世纪诞生以来,无论技术还是理论都日趋成熟。目前,人工智能已经开始进入人类的日常生活,包括传统的工业机器人、家政机器人,以及智能的军事机器人、航天机器人等。

面临的问题

如今日常生活中,从娱乐、出行到支付手段,人工智能已经在悄然改变着我们的生活。人工智能已经成为国际竞争的新焦点、经济发展的新引擎,带来社会建设的新机遇,同时人工智能发展的不确定性也带来新挑战。在这些新挑战中,最令普通人关注的,或许就是人工智能时代的“人机关系”:人工智能系统做出决定意味着什么?它们做出行为和决定,面临的社会和法律后果是什么?人工智能系统可以对其行为负责吗?一旦他们的学习能力将它们带入到可能与它们最初的设计和设置联系起来的状态,这些系统又该如何被控制?商业系统中的这种自主创新是否应该被允许,应该如何管理使用和开发?高阶人工智能有没有失控风险?人工智能有了独立意识,该不该获得与人类相同的权利?未来的机器会不会挑战人类社会的秩序,甚至获得自主塑造和控制未来的能力?这些和许多其他相关问题是目前备受关注的焦点。社会和我们的系统能够处理这些问题的方式将在很大程度上决定我们的信任程度,最终决定人工智能在社会中的影响以及人工智能的存在。

1.失业问题

人工智能的大规模的应用是目前的一个趋势,尤其是在制造业领域,该领域的劳务人员占从业人员的很大比例。在当今世界,制造业不断推出智能化机器来代替劳动力,以求得到更高的效益,因此很多岗位正在被机器人代替,工人自然面临着下岗的危险。就业岗位的大

面积减少,工人该何去何从?他们又该怎样来换取养家糊口的收入?

当然,目前社会的运行模式就是大部分人要通过出卖劳动力来获取收入。人工智能发展起来之后,人来最终会从劳动中解放出来,人们就会以其他方式来获取收入。但是这个过渡期对大部分劳动阶级来说,还是很艰难的。

2. 人工智能会会不会出现算法歧视

人工智能是由存在主观思想的个人或团体制造的,在软件编程中会不会融入个人观念的因素,会不会存在一些不和谐的观念?另外即使人工智能系统不被添加人的主观观念,在其自我学习的过程中,会不会保证一直公正与公平,而不会出现算法错误,会不会和人一样存在种族歧视等偏见。例如谷歌提供的照片服务,主要用于识别人物、物体和场景等。但正是这样的智能系统,竟然把黑人标记为大猩猩。这究竟看作是软件的技术问题,还是软件在计算过程中,出现了种族歧视的问题?

3. 怎样确保人工智能能够正确的应用?

人工智能,在一定程度上还是属于计算机,会执行人类既定的一些程序。那么,如果人工智被不法分子恶意使用,或者一些人工智能系统被不法分子侵入甚至控制,是否会对人类生命财产安全造成威胁?

如果有一天人工智能在军事当中大规模应用,并且人工智能达到很高水平之后,这些人工智能是否会产生个体意识?是否在感觉到自已正在被人类奴役之后,发动大规模军事战争?

随着人工智能化水平的提高,这些问题离我们越来越近,不得不令我们深思。

4. 我们如何保持对复杂智能系统的绝对控制权?

人类诞生以来,凭借其聪明才智,始终处于食物链顶端。“智能”是人类最引以为豪的能力,也是已知世界中最复杂的现象之一,背后一定隐藏着深奥的客观规律3。”随着人工智能的开发,计算机的计算能力人类无法企及,人类会不会丧失聪明的制高点,被人工智能取而代之。到那时,一旦人工智能有了自我意识,人类还将如何控制人工智能,会不会人类就变成了奴役的对象?

另外即使人工智能目前还没有自我意识,但是其运行模式仍然是个“黑盒子”,他们的创建者知道它们在运行,但无法清楚解释它们为什么会做出某些特定的决策,那人类又将如何规避它们不会做出对人类有威胁的举动呢?

5.隐私问题

很多人工智能系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了AI时代的“新石油”。这带来新的隐私忧虑。一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。所以国外的AI研究人员已经在提倡如何在深度学习过程中保护个人隐私。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、差别化隐私、决策矩阵等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。

6.机器人权利

现代科学技术在给人类带来便利的同时,也使人们不得不置身于伦理困境4。在人工智能产生自我意识之后,又如何定位机器人?汉森机器人公司研发的名为Sophia的美女机器人被沙特授予公民身份,加入人类籍。这只是利益集团的一个噱头?还是我们从人道主义和伦理方面做出的决定。在人工智能获得和人一样的权利之后,人类对于机器人的售卖又该如何定义?是否相当于人类的人口贩卖?

当然,我们还可以给人工智能定义另一种身份。欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。这个问题未来值得更多探讨。但是有一点,一旦我们将机器视为可以感知、感觉和行为的实体,那么思考其法律地位就迫在眉睫了。他们应该像拥有类同智慧的动物一样被对待吗?我们会考虑“有感觉的”机器的痛苦吗?一些道德问题是关于减轻痛苦的,一些是关于承担不良后果风险的。在考虑这些风险的同时,我们也应该记住,这项技术的进步,总体上意味着带给每个人更好的生活。人工智能具有巨大的潜力,而我们要对其实施负责。

应对措施

人工智能的研发,人类的出发点是好的,但新事物的产生必然伴随着一定的隐患。人工智能的快速发展,人类不得不深度思考其可能产生的一些威胁以及伦理问题。在应对这些问题上,我们要针对性的采取有效措施,使一些可能发生的威胁扼杀在摇篮之中,或将其威胁降低到最小。

1.加强全民教育,提高全体公民的知识水平和技能水平。

人工智能逐渐发展起来,但是其最先应用的行业还是一些比较低端的制造业和加工业。国家要不断提高教育的力度,使处于较低层的劳动力逐渐向知识人员和技术人员转变,这样不仅有利于我国创新能力的提高,在一定程度上也能提高就业率,降低失业率。

就目前来讲,只要国家采取的措施及时有效,我相信我们国家的劳动力会安全度过这个过渡期,而避免大规模底层劳动人员失业现象的出现。

2.加强对人工智能系统的研发,以及对算法系统进行监管

人工智能的应用越来越广,家务机器人、自动驾驶汽车,乃至军事上的智能系统,人工智能扮演的角色愈发重要,其每一个算法运行之后的结果都可能会引发意想不到后果。但是目前很多人工智能学习和决策系统,还是“黑盒子”,他们的创建者知道它们在运行,但无法清楚解释它们为什么会做出某些特定的决策。所以我们要对其算法系统进行更深的研究,使其算法结果更具有可预测性,并对其进行深度监管,以免对人的生命财产造成威胁。

3.要建立和健全人工智能从生产到应用的监管体系。

一方面,政府相关的职能部门要制定针对不同行业的监管体系和标准,对人工智能产品从设计、研发、数据采集、市场推广和应用等环节进行全方位监管。人工智能应用软件要进行特定的技术检测,对于违规软件实行整改或下架处理,使其退出市场。这种以惩戒为主的外部约束有利于人工智能产业和市场主体加强自律。另一方面,着眼于人工智能的运行和应用层面,要研发类似电子警察的人工智能系统,即用人工智能监管人工智能,防止人工智能技术被非法利用或偏离正常运行。

4.对人工智能系统嵌入道德和法律规范

哥伦比亚大学的彼特·丹尼尔森教授(Peter Danielson)于1992 年,在《ArtificialMorality : Virtuous Robots for Virtual Games》这本书里面第一次对于建立了机器人道德模型进行了探索。这是开创性的,当时属于机器人伦理学领域的最高水平5。使用计算机技术在人工智能系统中写入人类规范,正如未来生命研究院(FLI)推动提出“23条人工智能原则”。将这些规范和原则写入计算机系统,使其不能被人工智能自行改写。如是,当人工智能系统即使产生算法错误,运行结果会对人类产生威胁时,该算法结果会被终止,而不是继续运行。另外,在人工智能生产的过程中,我们应该安装“后门”装置,当智能系统产生错误算法结果并执行时,人类可以对其进行紧急终止。

5.对人工智能系统中的个人信息进行监管

人工智能系统的广泛应用,并定会存储大量的个人信息,为了防止个人信息的泄露,国家要建立健全相关法律监管体系,同时对人工智能的信息存储实行全网监控。这样,信息的存储和使用都处在国家监管部门的监管之下,使不法分子无法跳过监控系统而得到个人信息数据。

6.加快完成人工智能的定位

美国佐治亚理工学院“移动机器人实验室”负责人罗伯特·阿尔金(Ronald Arkin )教授是美国机器人伦理领域的代表。他在《Governing Lethal Behavior in Autonomous Robots》这本书中认为机器人伦理的难点是,对于机器人是否有道德主体地位的界定6。

他在对机器人在医药和军事领域的应用作了分析。还讨论了机器人在社会角色进行了讨论。人工智能越发智能,甚至有可能产生自我意识,人类要适时对其身份进行定位,是否要要赋予其人道主义地位?同时要尽快完善监管及责任制度,责任伦理是伴随着科技文明的发展所产生的伦理概念,“是在对责任主体行为的目的、后果、手段等因素进行全面、系统的伦理考量的基础上,对当代社会的责任关系、责任归因、责任原因及责任目标等进行整体伦理分析和研究的理论范畴7。对人工智能的运算及行为进行监管,同时其造成的事故需要有明确的责任人。

结语

人工智能自发展以来,已经取得了很大的进步,将我们在社会系统中一直以来植入于人类中的学习及判断,分散设置于世界上有需要的地方,由此来建设更为美好的社会系统,这才是人工智能今后发展的方向8。但是在人工智能发展过程中可能出现的问题,我们不能避而不谈。我们现在谈及的一些人工智能问题可能还为时甚早。但是我们一定要有前瞻意识,对人工智能进行前瞻性思考,对一些可能发生的问题早做准备,使人工智能的发展能够顺应人类的出发点,向着造福人类的方向发展。

参考文献

1.?zdemir V, Hekim N. Birth of Industry 5.0: Making Sense of Big Data with Artificial

Intelligence, "The Internet of Things" and Next-Generation Technology Policy.[J]. Omics-a Journal of Integrative Biology, 2018.

2.蔡自兴, 徐光祐. 人工智能及其应用[M]. 清华大学出版社, 2010.10.

3.黄铂钧. Alpha Go 来了![J]. 科学世界, 2016(4):4-11.

4.罗国杰,李萍.伦理学基础[M].北京:首都经济资易大学出版社,2009.

5.Danielson P. Artificial Morality : Virtuous Robots for Virtual Games[J]. Routledge, 1992.

6.Lisa Damm. Moral Machines: Teaching Robots Right from Wrong[M]. Oxford University Press,

Inc.2008.

7.田秀云,白臣.当代社会责任伦理[M].北京:人民出版社,2008.

8.松尾丰. 人工智能狂潮:机器人会超越人类吗[M]. 北京:机械工业出版社,2015.

相关文档