跳到主要内容
马库拉应用伦理学中心

人工智能、决策和道德去技能化

科肯之国

科肯之国

布莱恩·帕特里克·格林

老彼得·勃鲁盖尔"科肯之国:“1567只。公共领域。

布莱恩·帕特里克·格林(Brian Patrick Green)是马库拉应用伦理学中心技术伦理学主任。观点是他自己的。[1]

道德技能丧失是指由于缺乏经验和实践而丧失做出道德决策的技能。当我们开发人工智能技术为我们做决定时,我们将把决策能力委托给这些技术,人类将在做出道德决定方面变得越来越不熟练,除非我们努力不这样做。圣克拉拉大学(Santa Clara雷竞技最新app University)的香农·瓦洛(Shannon Vallor)在2015年的一篇论文《新机器时代的道德去技能化和技能提升:对性格模糊未来的思考》中提出了这一观点。在这里,我想探讨什么是去技能化,道德去技能化的更大背景,考虑它的原因,为什么它是有问题的,以及一些可能的解决方案。

我们如何看待道德去技能化?

在航空公司飞行员中也可以发现类似的担忧。随着高度复杂的自动驾驶系统的出现,从技术上讲,从起飞到降落的航空旅行的各个方面都实现自动化是可能的。然而,航空公司和飞行员选择不这样做,而是只在飞行中无聊、平淡的部分使用自动驾驶仪。为什么?因为这些恰恰是最不需要技巧的部分。起飞和降落——最需要技巧的部分——正是飞行员不能失去技巧的部分,因为如果他们失去了,他们就会依赖自动驾驶仪。然后,如果自动驾驶仪失败了,他们可能无法以足够的技能接管它,尤其是在紧急情况下。

道德就像这样——我们可以自动驾驶很多(对我们大多数人来说,不撒谎、不偷窃、不暴力很容易)——但对于其中一些人来说,生活中真正困难的道德状况(抵制做坏事的压力,辨别正确的行为,判断复杂的案件,等等),我们需要依靠自己的技能,并希望它们足以满足我们的需要。其他类似的人工智能导致的去技能化案例还可以在导航(盲目跟随人工智能方向)、人际关系(依赖应用程序查找约会对象)、金融(大规模金融科技)、新闻和信息(我们能分辨真假吗?)等领域找到。

技能培养的大背景是什么?

道德去技能化可以被认为是人类历史和进化过程中一个非常大而长期的运动的一个小而特殊的影响。这种趋势是向组织化、专业化和复杂性的驱动。这一趋势之所以存在,是因为专业化带来了效率,而有了效率,精力就可以被释放出来,进行更复杂的行动,这是一个自我强化的循环。这可以通过观察更复杂和更不复杂的社会之间的一些差异来阐明。

更复杂的社会有:专门化,中心化,系统化,相互依赖,有组织,高效,但是脆弱,脆弱。如果我们少做一些个人的事情,比如少种地、少做饭、少开车等,我们就能集体做得更多。但风险在于,在一场灾难中,一场系统性的崩溃,许多人将被扔到他们没有做好准备的境地,没有足够的培训或资源(因为效率消除了为了做“更多”而做“额外”的情况)。

较不复杂的社会有:不那么专业化,不那么分散,不那么系统化,不那么独立,不那么有组织,效率低,但却很强硬,很健壮。如果我们都知道如何做每件事,我们可以生活在更低的风险中,但代价是缺乏协调与合作,无法完成复杂的事情,以及大量浪费人才和生产。自己动手(DIY)和“准备者”运动代表了回到这种不那么复杂的生活模式的浪漫愿望,或者至少是在复杂而精致的技术社会大厦崩溃时做好准备。

没有实践的知识就会丧失。举个例子,像种植食物这样简单的事情。在“发达”世界,现在有多少人能经营一个自给自足的农场?还是打猎或捕鱼能活下来?不是很多。这意味着我们变得没有技能了:过去的人可以做我们现在不能做的事情,至少不是在没有大量训练和准备的情况下。

这在一定程度上是件好事!这意味着我们可以自由地做其他更复杂的工作。但作为一个副作用,我们在很多方面都不如以前技术水平的人类熟练。

我们是如何进入这种技能随着时间的推移而增长和衰退的状态,整个职业随着世代的流逝而出现和消失?

在过去,让人类专门从事特定的工作要比让技术专门从事特定的工作容易得多。人类是周围最聪明、最强壮的动物(有时动物除外)。但那些日子正在慢慢结束:专业化现在正远离人类,转向技术。

  • 首先,我们把人类的知识和肌肉赋予特定的人。
  • 接下来,我们将人类的知识和肌肉转化为机器。
  • 现在我们正在把智能本身变成机器(也许这样就会让人类失去工作?)

所有这些将人类技能转化为机器的专业化,带来了人类历史上从未见过的令人难以置信的效率。我们可以用更少的劳动力获得巨大的生产力。过去,几乎所有的人类劳动都用于生产粮食,而现在,参与生产粮食的人类劳动相对较少。自动化和机器使社会发生了革命。

继续这种自动化的脉络,人工智能是一个放大器和助燃剂。它能得到我们想要的东西,而且比以往任何时候都更快、更有效。如果说技术是自然,被磨砺过(就像石刀或磨过的棍子一样,被打磨到精确的用途),那么人工智能就是自然的人类智能,被磨砺过。无论我们能想象到什么,我们很快就能专业化,做得比我们现在做得更好——无论是善还是恶。这就涉及到伦理学。

人工智能会取代我们的道德决策能力吗?

在很多情况下,是的,可能会。我们已经通过法律、政府和文化来改变人类行为。专门的公民制定和执行法律以促进或抑制某些行为。因此,与生活在无政府状态下的人相比,我们通常不必考虑我们的道德选择。人工智能只会将这种力量扩展到更多的生活中,拥有更多的控制权。随着计算机做得越来越多,人类会做得越来越少——人类将把大量的决策交给自动化系统,而我们将失去这些任务的技能。

无论人们把自己的能力交给其他人(通过劳动分工)还是自动化,这些技能都变得专业化,因此不那么常见。如果我们把许多复杂的能力交给人工智能,很快这些专业技能可能会变得非常罕见。到那时,可能很少有人能察觉到这些人工智能是否在犯错误,我们将生活在一个我们自己创造的世界里,但仍受我们不再理解或控制的事物的摆布。

那么,我们注定要走向一个懒惰、疏忽和不道德的未来吗?人工智能至少有六种具体的方式可以降低我们的道德能力,分为三大类。

A)攻击真相和注意力

1.各级教育水平低下——对许多学生来说,我们的教育体系运转不良,但除此之外,我们的媒体和其他信息系统也被错误信息和虚假信息所腐蚀,其中大部分是由人工智能推动的。因此,我们也破坏了培养知情公民所必需的教育体系。

2.分散注意力——人工智能驱动的游戏和应用程序正在将我们的注意力引向琐事,远离生活中重要的事情,比如关心人际关系,思考解决更大规模的个人和社会问题。

B)阻碍人类成熟和道德发展

3.技术就像“父母”/人类“婴儿化”——在很多方面,技术似乎“父母”我们,帮助我们提供东西或告诉我们该做什么,从而使我们婴儿化,降低了我们以成熟、熟练、自信和独立的方式参与生活的能力。人工智能将大大加速这一趋势。

4.道德经验不足——道德发展需要实践.如果“熟能生巧”,那么“不熟则不完美”。我们花在人工智能驱动的心理操纵上的时间越多,花在人际关系、关心他人和思考道德问题上的时间就越少,我们在道德方面的表现就越糟糕。

C)正常和武器化的复杂性

5.“正常”的复杂性——人工智能只是将正常生活的大部分变得过于复杂,以至于大多数人,甚至是非常聪明的人,都无法理解。在一个日益复杂的世界里,理解将不再是一种期望,在这种缺乏理解的情况下,许多不好的事情可能会发生。

6.武器化的复杂性——如果理解不再是一种期望,人类将变得更加容易欺骗和操纵,毫无疑问,一些人将会使用人工智能系统来达到这一目的,因为他们已经这样做了。

这些是目前明显存在的一些威胁;毫无疑问,在不久的将来会有更多的迹象显现出来。值得注意的是,所有的趋势都指向科技伤害我们其实不是科技的趋势,而是人们的趋势.人类,在某种意义上(即使只是下意识地或由于我们自己的恶习),想要不受教育,被误导,分心,幼稚,发育不良,太简单了,无法理解这个世界。而我们这些生产和使用技术的人,实际上,如果不是明确的意图,也希望我们成为这些方式。

正如c。s。刘易斯在1943年所指出的人类的废除“我们所说的人对自然的权力,原来是一些人以自然为工具对另一些人行使的权力。技术不能独立于人类的选择而运行,至少现在还不行。所以现在的问题是:我们该如何应对?以下是针对上述威胁的六种解药。

)教育

1.教育——利用人工智能来加强和个性化教育(包括通过虚拟现实)以及打击错误信息和虚假信息有很大的潜力。教育不仅应该教授和奖励知识和理解,而且应该实用的智慧而且道德领导.教育要更加努力地灌输良好的道德习惯,教导道德注意。此外,就像人类不应该同等地衡量谎言和真相一样,自动化系统也不应该如此,无论是在他们自己的决策还是在他们推广的材料中。人工智能可以帮助保护信息生态系统,也可以帮助人类在评估事实时变得更有鉴赏力。

2.注意力——人工智能不会伤害我们的注意力,而是可以通过过滤干扰和突出道德问题来帮助我们训练道德注意力。这似乎是一个小问题,但注意力是一个价值数十亿美元的产业,这一事实应该告诉我们,注意力是值得花钱的,因为它是对任何问题进行进一步思考的基础。如果我们从未注意到一个道德问题,我们就永远无法解决它——因此我们需要注意它。只有这样,我们才能进行更复杂的分析。

B)人类成熟和道德发展

3.成为成年人——我们应该强烈抵制那些试图像我们的父母那样行事或把我们幼稚化的技术。相反,人工智能可能会帮助我们发展道德成熟度和洞察力,帮助我们训练克制、实用智慧和勇气等美德。但人工智能不能为我们做决定,因此会产生依赖性;关键在于提升人类的这些技能,帮助我们成为独立的道德决策者。

4.与他人互动——人工智能可以鼓励我们花更多时间与他人面对面交流,从而建立更牢固的人际关系,而不是通过屏幕阻碍我们的人际关系发展。大多数道德生活都发生在我们与他人的日常互动中,如果我们没有这些互动,而是把时间花在其他活动上(即使这些活动是好的活动),我们就无法获得实践和道德专业知识。

C)促进道德规范

5.处理复杂性——随着世界变得越来越复杂,我们可能需要人工智能来为我们处理这种复杂性,不幸的是,同时导致我们更加依赖那些简化的人工智能。但人工智能能帮助我们解决复杂性问题吗?如果人工智能可以帮助我们解决生活中更简单的问题,我们是否可以专注于解决最大的道德问题,如世界和平、饥饿、医疗保健等?彼得·莫林(Peter Maurin)曾将自己一生的工作描述为试图“创造一种人们更容易做好事的社会”。人工智能如何帮助我们创建这样的社会,同时尊重我们的自主权和道德发展?

6.停止将复杂性武器化——人工智能可以帮助我们揭露不良行为者将复杂性作为欺骗和操纵我们的武器,但这项任务是艰巨的,并且不断变化。在未来,开发人工智能系统来实现这一功能将变得更加重要,因为这是一场军备竞赛,到目前为止,武器化的复杂性似乎占了上风(例如,虚假信息和错误信息,以及其他各种故意复杂的问题)。

虽然这些解决方案很困难,但它们值得挑战。实用的智慧将永远是一个好人的定义特征。道德伦理永远不会过时,做一个好人永远是值得追求的目标。尽管困难重重,但人类有能力完成这项任务;但我们需要勤奋地努力。用温德尔·贝里的话来说:“我们为未来唯一能做的就是现在做正确的事。“[6

参考文献

本文的先前版本已在2018年10月29日洛杉矶Playa Vista校区洛约拉玛丽蒙特大学商业道德和可持续性研究所举办的“人工智能、决策和道德去技能化”人工智能与社会公益:挑战、机遇和伙伴关系会议、商业道德和人工智能研讨会上提出。视频可在此观看:https://www.youtube.com/watch?time_continue=170&v=qgDByVvCj0Q以及“人工智能、决策和道德去技能化”,2018年11月14日,在加利福尼亚州旧金山举行的人工智能全伙伴关系会议上点燃演讲。我在这里也写过一些关于去技能化的文章:《人工智能的伦理思考》,科学与信仰6(2) / 2018: 1。http://apcz.umk.pl / czasopisma / index . php / SetF /文章/视图/ SetF.2018.015/15729

[2] Vallor, Shannon. 2015。《新机器时代的道德去技能化和技能提升:对性格模糊未来的思考》技术哲学28:107 - 124。可以在:https://link.springer.com/article/10.1007/s13347-014-0156-9

[3]格林,布莱恩·帕特里克。“新兴技术、食品和伦理”,海伦·勒巴伦·希尔顿捐赠讲座系列(2017-2018),爱荷华州立大学,爱荷华州艾姆斯,2018年4月24日。

克莱夫·斯台普斯,刘易斯,1944年。人类的废除.纽约:哈珀·柯林斯出版社,第55页。网上:https://archive.org/stream/TheAbolitionOfMan_229/C.s.Lewis-TheAbolitionOfMan_djvu.txt

[5]天,多萝西,“给我们的读者在我们的十五年初的信,”天主教工人, 1947年5月,1,3,可在:http://www.catholicworker.org/dorothyday/articles/155.html多萝西·戴的《彼得的计划》天主教工人, 1955年5月,第2期,可在:http://www.catholicworker.org/dorothyday/articles/176.html

[6] Berry, Wendell, "马蒂论坛:Wendell Berry, "AAR 2013年年会2013年11月24日,马里兰州巴尔的摩。音频:https://www.aarweb.org/programs-services/a24-252-marty-forum-wendell-berry

3月15日