跳到主要内容
马库拉应用伦理学中心

道德的镜头

概念框架

概念框架

Shannon Vallor, Irina Raicu, Brian Green

概念框架从几个世纪以来塑造了伦理学研究的理论中提取出来,可以帮助我们在遇到道德问题时认识和描述它们。通过这种方式,对伦理理论的基本掌握可以像一个实际伦理问题的实地指南。

许多伦理理论可以框定我们的思维;在这里,我们将重点介绍几个被学术和专业伦理学家广泛使用的理论,尤其是技术伦理学家。然而,这些伦理理论主要是在西方哲学思想的背景下发展起来的;我们的选择不应被视为忽视其他文化背景中可用的丰富的道德框架的许可。对这些框架的简要讨论载于第11页本指南。

下面的每个部分都包括一个伦理理论的简要概述,反映它与技术人员相关的例子,以及技术人员/设计团队可以通过这个镜头引发道德反思的有用问题列表。

权利视角

概述
这个伦理镜头聚焦于道德规则、权利、原则和义务.它更倾向于普遍主义与其他类型的伦理理论相比,规则/原则通常适用于大多数或所有可能的情况。当我们遇到权利、原则或义务冲突时,这就产生了一种特殊的挑战——不可能遵循一个道德规则而不违反另一个,或者不可能履行我们对一个利益相关者的道德义务而不履行对另一个利益相关者的道德义务。在这种情况下,我们必须确定在这种情况下,哪些权利、原则和义务具有最大的道德力量,并且/或在“不赢”的情况(通常称为“邪恶的”道德情况)发生时,找到一种解决方案,最大限度地减少对道德的违反。因此,权利视角仍然需要仔细的伦理反思和判断,才能很好地使用;这不是一份简单的道德清单,可以不加思考地执行。

以规则为基础的道德体系范围很广,从最普遍的“黄金法则”,到W.D.罗斯(1877-1971)提出的七条理论至此为止道德责任(只能被其他道德上更重要的责任所取代的责任):忠诚;赔偿;感激之情;正义;善行;non-injury;和自我完善。

伦理学家更广泛使用的是分类命令式,由伊曼努尔·康德(1724-1804)以三种形式提出的单一义务论规则。在实践伦理学中最常用的两个是自然普遍法则的公式人性的公式.第一个告诉我们,我们只应该按照我们愿意强加给每个理性主体的原则/格言行事,就好像我们实践背后的规则是一个普遍的自然法则,每个人,任何地方,都必须遵守。第二,人性公式他指出,一个人应该始终把他人视为目的(值得尊重的有尊严的人),而不仅仅是目的意味着最终(即,绝不仅仅是为了我的目的而被操纵的工具/对象)。因此,从一个人对另一个人的行为中获益是允许的,前提是这个人自己的自主权和尊严在这个过程中没有被侵犯,而且被作为一种手段对待的人愿意接受这种对待,这是他们自主选择的目的的一部分。

通过这一伦理视角,我们经常强调的伦理问题和关切包括但不限于:

  • 自治(人们可以自由选择的程度)
  • 尊严(人本身被重视的程度,而不是作为有价格的物品)
  • 透明度(诚实、公开、知情的社会待遇/分配情况)

技术实践中与权利相关的道德问题的例子:

一个被故意设计来欺骗用户的虚拟银行助理(例如主动将自己表现为人类)在哪些方面违反了道德规则或原则,例如康德的命令,永远不要将人仅仅视为达到目的的手段?人们的感受是合理的吗委屈即使他们并没有因为这个软件而受到经济上的损害,他们也会被银行发现欺骗吗?商业金融交易的参与者有道德吗不被欺骗的权利,即使法律漏洞意味着没有法律这里的权利被侵犯了?

从权利的角度来看,意味着预测可能出现侵犯自主、尊严或信任的情况,而不管是否存在恶意意图,也不管是否对人们的利益造成了实质性损害。在科技行业,许多违反此类义务的行为都可以通过寻求有意义的和公平的方式来避免正在进行的同意从那些可能受到影响的人(不一定只是最终用户)和提供彻底的技术设计、条款和意图的透明度。

然而,重要的是要记住,对权利的关注往往需要与其他类型的关注相平衡。例如,自主权不是无条件的好(技术人员不应该授权用户做他们想要什么都行)。当用户自主权带来不可接受的道德风险时,这种价值需要与适当限制的道德家长主义(即过分不道德。)一个很好的例子就是对强密码日益标准的设计要求。

照亮伦理景观的技术人员的权利相关问题:

  • 什么权利其他人&职责在特定的环境下,我们必须尊重其他人吗?
  • 如何尊严自治每个涉众会受到这个项目的影响吗?
  • 我们的项目对待人们的方式是这样的吗透明的他们也会这么做同意?
  • 我们的选择/行为是我/我们能找到的那种吗普遍可以接受吗?
  • 这个项目是否涉及到对他人的道德义务的冲突,或者涉众权利的冲突?如果是,我们该如何优先考虑这些问题?
  • 在这个项目中,哪些道德权利/义务可以被上级合理地推翻道德责任,或者更多基本权利?

正义/公平的视角

概述
这种广泛使用的伦理视角关注的是给予个人或群体应有的待遇。这包括利益和负担的适当分配,并考虑到人与人之间的伦理差异——即所谓的分配正义。

亚里士多德(公元前384-322年)认为,平等的人应该被平等对待;然而,这留下了一个悬而未决的问题,即应该使用哪些标准来确定人们是否“平等”。比如,亚里士多德就不公正被排除在外妇女和非希腊人有权享有平等待遇。哲学家们认为,正义要求我们在分析时考虑诸如需求、贡献以及社会结构对个人和群体的广泛影响等因素。

正义的视角还包括报应正义。“以眼还眼”是对这种正义的呼吁;旨在惩罚犯罪行为的现行法律也反映了这种正义的概念。第三种类型是补偿性正义,体现在努力补偿受伤的人(无论他们所遭受的伤害是否是故意的),或将丢失或被盗的财产归还给合法的所有者。

正义和公平还要求公正和避免利益冲突。例如,哲学家约翰·罗尔斯(1921-2002)认为,一个公平公正的社会应该建立在“无知的面纱”之下,人们无法控制这些特征,这些特征不应该决定参与者在社会中的角色和机会,比如年龄、性别、种族等。他认为,由于无法根据自己的特点来决定天平的倾斜,人们就会创造一个更加平等和公平的社会。

与权利视角一样,正义视角也与人类尊严的概念有关。然而,它更多地关注人与人之间的关系——实现对人的尊严的社会尊重所需的条件和过程。

通过这一伦理视角,我们经常强调的伦理问题和关切包括但不限于:

  • 平等、公平、公正(道德上合理的利益、商品、伤害和风险的分配)
  • 多样性和包容性(确保所有受影响的利益攸关方,特别是弱势或边缘群体的利益攸关方积极参与确定正确分配的过程)
  • 正当程序(建立最有可能导致公正结果的程序和条件)
  • 普遍性和一致性(以同样的道德标准看待所有人和行为)
  • 权力与机遇(认识到并非所有各方的情况都类似,承认历史和系统的不公正是一个背景条件)

技术实践中与正义/公平相关的道德问题的例子:
一个数字广告应用程序允许人们发布定制的住房或工作广告,只针对40岁以下的人,或只针对特定邮政编码的人,它会产生什么影响公平正义?

设计如何影响残障人士或只能负担较旧较便宜技术工具的人使用各种产品的可及性?

应该如何使用面部识别工具(或其他通常在不具代表性的数据集上训练的算法工具,因此对一些人和群体来说远不如对其他人准确),如果有的话,应该在哪些情况下使用?

从这个角度来看,我们可以看到,技术往往会不均衡地分配利益和损害,并经常加剧或延续现有的不公平社会状况。它还强调了技术人员需要咨询可能与自己处境非常不同的利益相关者,以便真正理解(而不是假设)产品的潜在好处,以及意识到他们可能会错过的危害。

为照亮伦理景观的技术人员提出的正义/公平相关问题:

  • 这个设计/项目带来的好处和负担是什么?它们是如何在不同的利益相关者之间分配的?
  • 潜在用户之间的道德差异是什么?我们该如何调整呢?
  • 是否征询了相关利益相关者的意见,以便他们的意见为项目提供信息?
  • 在设计和开发过程中,那些最有可能受到项目影响的涉众是积极的参与者和领导者吗?
  • 是否考虑了多种选择,以满足不同需求的个人和团体?
  • 这个项目的危害风险是否不成比例地落在社会中最不富裕或最没有权力的人身上?这个项目的好处会不成比例地分配给那些已经享受了超过他们应得的社会优势和特权的人吗?

功利主义的视角

概述
功利主义伦理学由约翰·斯图亚特·密尔(John Stuart Mill, 1806-1873)提出,它要求我们衡量整体我们的行动可能带来的幸福或福利所有那些长期受到影响的人。在密尔的理论中,幸福的衡量标准是总快乐和没有痛苦。身体上的快乐和痛苦并不是最重要的衡量标准;尽管它们也算数,但密尔认为,至少对人类而言,智力和心理上的幸福具有更高的道德品质和意义。

功利主义对很多工程师很有吸引力,因为理论它意味着量化道德分析和选择最佳结果的能力(以最少的痛苦产生最大的整体幸福)。然而,在实践中,这往往是一个棘手或“邪恶”的计算,因为一项技术的影响往往会无限地扩散(考虑到这些技术对地球环境及其居民的毁灭性后果,我们难道就不该发明汽油发动机或塑料吗?);在所有人群中(如果我们考虑到所有后代和全球所有尚未体验其后果的用户,社交媒体平台的发明最终对人类是正面的还是负面的?)

要求平等地考虑福利所有受影响的利益相关者,包括那些离我们很远的人,以及考虑长期和非预期的影响(在可预见的情况下),使功利主义伦理成为道德上要求很高的标准。功利主义伦理学就是这样等同于或甚至非常类似于商业中常见的成本效益分析形式,其中只考虑物理和/或经济利益,通常只考虑短期利益,或利益相关者的范围很窄。

道德后果远远超出经济利益和损害。它们不仅包括身体上的,还包括心理上的、情感上的、认知上的、道德上的、制度上的、环境上的和政治上的幸福或伤害或退化。

通过这一伦理视角,我们经常强调的伦理问题和关切包括但不限于:

  • 幸福(在综合意义上,包括身体、精神和许多其他形式的健康等因素)
  • 利益相关者利益的平衡(谁在受益,谁在受损,以何种方式、何种程度、多少)
  • 预测后果(有些后果可以预测,有些则不能;尽管如此,人们还是应该考虑到这一行动的所有合理可预见的影响)

技术实践中的功利主义伦理问题:
当技术人员在设计第一波应用程序时,希望最大限度地提高“粘性”,让用户继续使用他们的应用程序或设备时,大多数人都没有料到会对用户造成道德伤害。到目前为止,大多数技术专家已经不得不放弃这种对技术成瘾等问题的道德幼稚。虽然权利和公平问题也在这里发挥作用(因为成瘾损害了人们的认知自主性),但即使是功利主义的解读也告诉我们我们错了,因为“粘性”设计的许多有害后果事实上是可以预见的。

技术人员错误的假设人们的技术选择与他们不断增长的幸福和福利可靠地相关。这不是合理的假设,因为人们对自己的选择不满意一直以来在美国,我们受到许多精神上的强迫,驱使我们选择那些承诺幸福但无法实现的行动,或者只能带来非常短期、肤浅的快乐,而剥夺了我们更持久、更实质性的快乐。领先的设备制造商现在越来越多地承认这一点,他们开发了对抗科技成瘾的工具。

为照亮伦理景观的技术人员提出的相关问题:

  • 有哪些人可能是直接的和间接受此项目影响?在哪些方面?
  • 总的来说,这些影响会带来更多的好处而不是坏处吗类型善与恶?我们是什么计数作为幸福,我们把什么算作伤害/痛苦?
  • 什么是大多数这个项目所涉及的道德上的重大伤害和利益?是我们对这些概念的看法太狭隘了,还是我们在思考所有相关类型的伤害/利益(心理的,政治的,环境的,道德的,认知的,情感的,制度的,文化的,等等)?
  • 未来几代人会如何受到这个项目的影响?
  • 我们是否充分考虑了“双重用途”和下游的影响意愿?
  • 我们是否考虑过所有的行动/资源/机会,以提高项目的潜在收益并将风险降至最低?
  • 我们是否太容易满足于道德上“可接受”的设计或目标(“不造成伤害”),还是错过了设定更高道德标准并产生更大利益的机会?

共同利益的观点

概述

道德思考的另一种方法是关注共同利益它强调共享的社会制度、社区和关系(而不是功利主义对个人总福利/幸福的关注)。这种区别很微妙,但很重要。功利主义者先考虑对个别个体可能造成的伤害或利益,然后把它们加起来,以衡量总的社会影响。相比之下,公益镜头关注的是一种做法对健康和福利的影响社区或一群人,直至并包括全人类,如功能的整体

这里衡量的福利不仅仅是个人幸福,还包括政治和公共健康、安全、自由、可持续性、教育或其他被认为对繁荣社区生活至关重要的价值观。因此,这项技术可能会似乎为了满足功利主义者(比如通过神经化学干预,让大多数人个人幸福),如果结果是社区生活和健康的损失(例如,如果这些人一生都与他人脱离——就像瘾君子在技术诱导的个人欣快状态中漂泊),那么就可能无法通过公共利益测试。

公益伦理学家还将研究一种实践对对社区生活至关重要的道德重要机构的影响,例如对政府、司法系统或教育,或对支持生态系统和生态系统的影响。共同利益框架帮助我们避免臭名昭著公地悲剧在美国,理性地寻求对每个人的好结果最大化会导致社会的损害或破坏系统这些个体赖以生存的资源。共同利益框架也与文化观点有共同之处,在这些观点中,促进社会和谐和稳定运作可能被视为比最大限度地提高孤立个人的自主权和福利在道德上更重要。

就实际目的而言,将功利主义和共同利益的方法看作是互补的视角,促使我们同时考虑个人和公共福利,即使这两者处于紧张状态,也是有益的。在做技术伦理的时候,使用功利主义和共同利益的镜头,就像用特殊的眼镜看鸟一样,它帮助我们从单个的鸟缩小到一个动态的网络(移动的鸟群中的各种成员),然后试图尽可能地预测鸟群旅行的总体方向(这个项目总体上会让人们的生活更美好吗?)同时仍然注意到任何特定的成员处于特殊的危险之中(一些人会为了其他人的微不足道的利益而遭受巨大的痛苦吗?)

通过这一伦理视角,我们经常强调的伦理问题和关切包括但不限于:

  • 社区(不同规模,从家庭到社区、城镇、省份、国家和世界)
  • 的关系(不仅是个体之间,还有更整体意义上的群体关系,包括非人类的动物和自然界)
  • 治理机构(以及这些网络机构之间相互作用的方式)
  • 经济机构(包括公司及企业文化、贸易组织等)
  • 其他社会机构(如宗教团体、校友会、专业团体、环保团体等)

技术实践中的共同利益伦理问题示例:
在我们对技术成瘾的讨论中(在上述功利主义的分析下),我们注意到它对个人幸福和福祉的影响。然而,我们也知道科技成瘾会伤害共同利益通过破坏家庭和公民关系以及对健康社区至关重要的制度,例如民主制度。

人工智能模型的技术使用、数据存储和能源密集型训练也会以涉及共同利益的方式影响环境。

此外,从武器到心脏起搏器,现在所有东西都连接到互联网,网络安全已成为共同利益所需的条件之一。

为照亮伦理景观的技术人员提出的相关问题:

  • 这个项目是否使许多人受益,但却以牺牲国家利益为代价共同利益?
  • 它会为了公共利益而牺牲个人的福利或关键利益吗?我们考虑这些权衡,并确定哪些是道德上合理的?
  • 这项技术对社会机构(如各级政府、学校、医院、教堂、基础设施等)会有什么影响?
  • 这项技术对人类社会之外的更大环境,比如生态系统、生物多样性、可持续性、气候变化、动物福利等,会有什么影响?

德性伦理学视角

概述
德性伦理比其他伦理框架更难概括。美德伦理学本质上承认,任何一套道德规则或原则都是不完整的,人们需要具有良好的道德品质和良好的修养,几乎是明智的道德判断填补了空白。

亚里士多德(公元前384-322年)指出,伦理学不能像数学一样对待;伦理学没有算法,道德生活也不是一个定义良好的封闭问题,人们不能为它设计一个单一的最优解决方案。在一个混乱、开放、不断变化的社会环境中,我们必须找到方法来维持和支持人类与他人的繁荣,在这种环境中,新的环境和背景总是在出现,要求我们适应现有的道德启发式,或者在现场发明新的定制的启发式。

然而,美德伦理学确实为构建伦理景观提供了一些指导。它要求我们识别那些具体的美德-稳定的性格或性格特征-道德优秀的人在我们的行动环境中始终表现出来,以及然后识别和推广行动习惯产生并加强这些美德(和/或压制或削弱相反的恶习)。举个例子,诚实是设计师和工程师的美德(伪造数据或夸大结果的倾向是一种恶习),那么我们应该思考设计实践的哪些习惯倾向于促进诚实,并鼓励这些习惯。正如亚里士多德所说,“我们反复做的事造就了我们。”我们不是生来诚实或不诚实,而是我们成为一个或另一个,只能通过形成对真理的善或恶的习惯。

德性伦理也很高上下文相关的每一种道德反应都是独特的,即使是我们最坚定的道德习惯也必须适应不同的情况。例如,一个有高度发展的勇气美德的士兵在某种情况下会一头冲进明火的战场,而其他人则在恐惧中畏缩不前;但在其他情况下,这样做的士兵不是勇敢的,而是鲁莽和愚蠢的,危及整个部队。有道德的士兵确实能看出其中的差别,并采取相应的行动——也就是说,明智的在愚蠢的极端(在这种情况下,懦弱和鲁莽的恶行)之间找到适当的“中庸之道”,这些总是与上下文相关的(在一种情况下鲁莽的行为在另一种情况下可能是勇敢的)。

当其他伦理镜头将我们的道德注意力向外聚焦到我们未来的技术选择和/或其后果上时,美德伦理提醒我们也反思我们是谁,作为道德专家技术专家,我们想成为谁,以及我们如何才能实现这一目标。

它还要求我们描述在我们的领域中,我们努力模仿甚至超越的道德卓越模式。一个人的习惯、技能、价值观和性格特征是什么的工程师,或的设计师,或模范编码器?

美德伦理学还包含了一个独特的道德智慧元素,叫做道德智慧实用的智慧,它结合了几种能力:道德知觉(意识突出的道德事实和事件),道德情感(感觉对情境的适当道德反应)和道德想象(展望和熟练发明对新情况和新语境做出适当的、校准良好的道德反应)。

通过这一伦理视角,我们经常强调的伦理问题和关切包括但不限于:

  • 性格习惯/美德和恶习(一个人性格的特点,包括好的和坏的)
  • 上下文(有关技术发展的决定所处的特定环境,以及该技术将在何种环境下部署)
  • 已经存在的美德和邪恶的表现(科技产品会表现出科技创造者和使用者身上已经存在的美德和邪恶)
  • 培养新的美德和恶习(科技产品可能会培养或强化用户的美德和恶习)

技术实践中与美德相关的伦理问题的例子:
许多网站为人们提供了仅靠在线广告补贴的新闻来源,通过受欢迎程度和页面浏览量提高了大众知名度,容易受到机器人、喷子和外国对手的欺骗。这种接触是否有助于我们成为更明智、更诚实、更富有同情心和更负责任的公民?还是它对我们的智力和公民美德产生了截然不同的影响?

在阐明注意力经济和数字媒体的问题效应方面,可能没有比美德伦理学更好的概念性视角了。这有助于解释为什么我们看到了这种情况下如此多的有害道德影响,尽管社交媒体公司的个人行为在道德上似乎是良性的;没有个人委屈通过在各种社交媒体平台上阅读新闻文章,甚至个人后果最初看起来也不那么具有破坏性。然而,现在的情况是,我们的习惯已经逐渐被新媒体的实践所改变,这些实践并不是为了维持同样的公民功能而设计的。

当然,并非所有的技术变革都会降低我们的美德。想想虚拟现实(VR)技术的伦理前景,它仍然相当开放。随着虚拟现实环境变得普遍和容易进入,人们可能会发展更强的同理心、公民、关怀和道德视角的美德,通过以一种更身临其境、更现实的方式体验他人的处境?或者他们会变得更加麻木和冷漠,像电子游戏中的玩家一样在别人的生活中穿梭?最重要的是这个问题:什么样的VR设计选择会让第一种伦理上可取的结果比第二种伦理上更有可能出现联合国可取的呢?

为照亮伦理景观的技术人员提出的相关问题:

  • 我们经常体现哪些设计习惯,它们是设计习惯吗优秀的设计师吗?
  • 我们会希望未来的技术专家使用吗我们的练习作为例子遵循?
  • 这个设计/项目将在用户和其他受影响的涉众中培养什么样的性格习惯?
  • 这个设计/项目是否会削弱或抑制对人类卓越(道德、政治或智力)至关重要的人类习惯、技能或美德?它会加强任何?
  • 这个设计/项目是否会激励玩家恶性用户或其他涉众的习惯或特征?
  • 我们的选择和实践是否普遍体现了适当的的意思是'的行为(相对于上下文)?还是他们极端的(过度或缺乏)在某些方面?
  • 这个项目的背景是否有什么不同寻常之处,需要我们重新考虑或修改良好设计实践的正常“脚本”?我们是否有资格并有能力安全和合乎道德地对正常的设计实践进行这样的修改,如果不是,谁是?
  • 这个设计/项目将表达什么关于我们作为人在那些接受它的人眼中?作为个人和团队/组织,我们会是这样吗骄傲让我们的名字和这个项目联系在一起?

护理伦理学的视角

概述
护理伦理不是关注个人或社区,而是主要关注的关系人与人之间——关心他人的人和被关心的人之间(尽管这种关心也可能是相互的)。定义了这一特殊视角的哲学家,如内尔·诺丁斯(Nel Noddings),认为首先要关心那些与我们有密切关系的人,是人类经验中自然、内在的一部分。护理伦理强调相互依赖的道德价值,而不是自主,并强调伦理决策的关系背景的重要性,而不是抽象的原则。

护理伦理的支持者认为,关注高级原则和抽象概念可能会忽视具象化和情感在特定情况下决定正确行为时的作用。他们还认为,护理伦理方法侧重于共情和同情,而不是完全公正的(不可能实现的)目标。

哲学家维吉尼亚·赫尔德(Virginia Held)认为:“建立在独立、自主、理性的个人形象之上的道德,在很大程度上忽视了人类依赖的现实,以及它所倡导的道德。”“护理伦理学关注人类生活的核心问题,并描绘出其中的道德价值……”然而,她补充说,“我们需要一个科学的、有意义的、有价值的研究。道德关心,而不仅仅是关心本身。关心和关心关系的各个方面和表达需要受到道德审查和评估而不仅仅是观察和描述。”

护理伦理经常与女权主义伦理联系在一起——尽管有些人反对护理伦理,认为它是普遍关注的“女性化”;反过来,一些护理伦理学家可能会指出,同理心和同情心并不是性别特定的,多种文化传统都指出了护理伦理学,例如,一个人应该优先满足家庭成员的需求,而不是那些不相关的人,或者优先考虑自己镇上成员的需求,而不是远处陌生人的需求。

虽然护理伦理学有时以这种方式狭隘地描述,强调关系的接近性和亲密性,但一些哲学家主张更广泛、更广泛的版本。关心这个世界可能是关心我们身边人的一部分;例如,关爱环境有助于保护与我们有直接关爱关系的人以及其他人的健康。

一篇文章斯坦福哲学百科全书注意到“关怀伦理与美德伦理有许多重要的相似之处一些作者认为,女性主义的关怀伦理只是美德伦理的一种形式或子集”;然而,这种观察忽略了护理伦理学对关系的特别强调,这是决定特定行为是否善良的一个关键方面。

通过这一伦理视角,我们经常强调的伦理问题和关切包括但不限于:

  • 关注关爱关系(所有人在人生的某个阶段都需要关爱,关爱的关系是人类繁荣的关键因素)
  • 体现(生理体验在多大程度上值得伦理考虑)
  • 情绪(理性和理性的决定不足以决定道德行为;同情、移情和对他人的回应也是关键)
  • 责任(人际关系赋予我们照顾的义务,使我们有责任根据具体情况,以特定的方式照顾特定的个人或群体)

技术实践中的护理伦理问题示例:
通过创建“朋友”或“追随者”等类别,而不区分用户之间存在的不同类型的关系,社交媒体公司可能正在破坏护理伦理学认为对人类繁荣至关重要的方面。例如,在Facebook上,父母和孩子彼此之间被视为“朋友”,他们的关系被视为类似于与同事或熟人的关系(后者也被归类为“朋友”);在Twitter上,所有人都是彼此的“粉丝”。然而,护理伦理学认为,有些关系比其他关系重要得多,承担着不同的责任和期望。

体现也是护理伦理的一个关键问题,它将受到虚拟现实新发展的深刻影响。“元宇宙”中的化身(技术生态系统是否会像某些人预测的那样广泛普及)会改变我们对自身和他人身体局限性的理解吗?触觉控制是否能够与母亲的手抚摸孩子额头的体验相匹配?

从护理伦理的角度来看,越来越多地使用机器人进行护理工作也呈现出新的维度。一方面,机器人可能会介入,至少完成人类之间关心伦理价值的部分关心关系;另一方面,它们可能会让人类更多地关注人际关系本身,而不是关心可能带来的身体压力。

为照亮伦理景观的技术人员提出的相关问题:

  • 我们的项目会影响个人之间的关键关系吗?如果是这样,它是加强了它们,还是削弱了它们,还是产生了混合或模糊的效果?
  • 如果我们产品的用户与我们的“客户”(例如广告商)不同,我们与哪个群体的关系更有意义?我们有责任主要保护和照顾谁?我们还对谁负有责任?我们如何最好地照顾他们?
  • 在试图客观公正地对待我们所有用户的过程中,我们是否忽略了一些与我们有不同关系的人在道德上的相关区别?
  • 在开发、部署和维护我们的工作项目时,我们自己是如何依赖他人的?当我们试图开发技术解决方案并知道其他人将依赖我们时,我们是否承认了这些问题?我们怎样才能最好地向我们所依赖的人表达关心呢?
  • 我们如何在技术发展中做出更广泛地反映对公众和环境的关心的决策?

全球伦理视野

没有办法对人类家庭在几千年里发展起来的所有伦理观点和框架提供一个“概述”,因为我们的物种有能力进行明确的伦理反思。重要的是,技术人员要保持警惕和足够谦虚,记住无论他们和他们的同事最熟悉或最“自然”的道德框架是什么,它们都只是他们潜在用户和受影响社区可能采用的道德图景的一小部分。

这并不意味着实践伦理学是不可能的;恰恰相反,这是我们无法回避的基本设计责任。但要记住,会议室、实验室、董事会中的道德观点永远不会是详尽无遗的,而且它们很可能偏向于那些恰好在会议室、公司或社会中占据主导文化多数的人最熟悉的道德观点。然而,我们创造的技术并不停留在我们的房间、我们的公司、我们的社区或我们的国家。

新技术向外渗透到世界各地,并将其影响扩散到人们和群体中,这些人往往在这些技术旨在加强或破坏的社区道德价值观方面没有公平的发言权。然而,我们不能以价值中立的方式进行设计是不可能的,而且我们可以这样做的幻想可以说比在未经他人同意的情况下故意将价值观强加于他人更危险,因为它做的是同样的事情——只是没有问责制。

技术人员在设计时牢记道德价值观;唯一的问题是,他们会以谨慎、反思、明确、谦逊、透明和对利益相关者的反馈做出回应的方式行事,还是以傲慢、不透明和不负责任的方式行事。

虽然道德和智力上的谦逊要求我们承认我们的伦理视角总是不完整的,并且受到认知和文化盲点的影响,但随着我们的设计传播到新的地区、文化和社区,伦理反馈和迭代的过程可以被校准,以邀请更多样化/多元化的伦理反馈。

技术实践中的全球伦理问题实例:
在中国,人脸识别、社交媒体和其他数字技术正被用于一项宏大的社会工程项目,以产生一个普遍的“社会信用”体系。在这个体系中,个人的社会地位和特权将根据政府系统给他们的“分数”大大提高或降低,“分数”是衡量他们的社会美德的标准,是他们促进“社会和谐”体系的能力。

许多西方伦理学家认为这种体系是极端反乌托邦的,在道德上是危险的。然而,在中国,一些人接受它,在一个将社会和谐视为最高道德善的文化框架内。如果邀请技术人员协助中国进行这个项目,或者协助其他可能希望效仿中国的国家,他们应该如何回应?应该用什么样的伦理价值观来指导他们?他们是否应该简单地接受当地的价值体系(尤其是在一个人们可能不愿表达自己真实价值的威权社会)?或者技术人员应该以他们自己的个人价值观、他们所居住的国家的价值观或他们公司制定的道德原则为指导?

这个例子说明了全球伦理视野冲突所带来的伦理挑战的深度。但请注意,没有办法逃避挑战。必须做出一个决定,无论如何做出决定,它都不会是道德中立的。“追逐利润”和“把道德放在一边”的决定不是道德中立的决定,而是将利润视为最高或唯一价值的决定。这本身就是一个充满道德负担的选择,一个人要为此负责,尤其是如果它导致了伤害。

在可能的情况下,跨越文化界限寻求伦理对话,并开始与其他文化空间的技术专家寻求共同点,这可能是有帮助的。这样的对话不会总是产生道德共识,但它们可以帮助形成我们必须开始的关于技术时代全球人类繁荣未来的对话,在这个时代,技术越来越多地将我们的命运联系在一起。

给照亮全球伦理景观的技术人员的问题:

  • 我们是否邀请并考虑了除我们自己之外的用户和社区的道德观点,包括那些在文化上或物理上与我们很遥远的人?或者我们已经陷入了“为自己设计”的陷阱?
  • 这个设计/项目的影响和感觉会是怎样的不同对于那些价值体系和社会规范与我们当地或熟悉的截然不同的用户和社区?如果我们不知道,我们怎么能知道答案了吗?
  • 在以科技为中心的西方文化中,“美好生活”的愿景远非普遍存在。我们是否考虑过科技的全球影响力,以及西方以外的伦理传统往往比我们可能的更强调社会和谐与关怀、等级尊重、荣誉、个人牺牲或社会仪式等价值观?
  • 在什么情况下我们应该拒绝出于令人信服的道德原因,我们应该尊重另一种传统的社会规范,在什么情况下,我们应该吸收并维护他人的规范?我们将如何决定,以什么标准或程序?

参考资料及进一步阅读

亚里士多德[公元前350年](2014)。尼各马可伦理学:修订本.反式。罗杰脆。剑桥:剑桥大学出版社。

Asaro, p.m.,“预测警务中的人工智能伦理:从威胁模型到关怀伦理”,见IEEE技术与社会杂志,第38卷,no。2, pp. 40-53, 2019年6月,doi: 10.1109/MTS.2019.2915154。

本杰明,鲁哈(2019)。追求技术的竞赛:新吉姆代码的废奴主义工具.英国剑桥:政治出版社。

《德性伦理与关怀伦理的对话》Theor Med Bioeth18, 47-61(1997)。https://doi.org/10.1023/A:1005797100864

布鲁萨德,梅雷迪思(2018)。《人工不智能:计算机如何误解世界.马萨诸塞州剑桥:麻省理工学院出版社。

D 'Ignazio, Catherine和Lauren F. Klein(2020)。数据女权主义.马萨诸塞州剑桥:麻省理工学院出版社。

诺布尔,萨菲亚(2018)。压迫的算法:搜索引擎如何强化种族主义.纽约:纽约大学出版社。

Ess, Charles(2014)。数字媒体伦理:第二版.剑桥:政治出版社。

格雷,J., &威特,A.(2021)。“关于机器学习的女权主义数据伦理:什么、为什么、谁和如何。”第一个星期一26日(12)。https://doi.org/10.5210/fm.v26i12.11833

举行,弗吉尼亚州(2006年)。护理伦理:个人、政治和全球.牛津:牛津大学出版社。

Jasanoff, Sheila(2016)。《发明的伦理:技术与人类未来》.纽约:W.W.诺顿。

卡根,雪莱(1989)。道德的界限.牛津:克拉伦登出版社,

伊曼努尔•康德。[1785](1997)。《道德形而上学的基础.反式。玛丽格雷戈尔。剑桥:剑桥大学出版社。

林,帕特里克,阿布尼,基思和贝基,乔治,编辑。(2012)。机器人伦理.马萨诸塞州剑桥:麻省理工学院出版社。

林,帕特里克,阿布尼,基思和詹金斯,瑞安,编辑。(2017)。机器人伦理2.0:从自动驾驶汽车到人工智能.纽约:牛津大学出版社。

麦克米伦。《沙里亚特》,乔纳森和绍西尔,辛西娅·萨瓦德(2017)。悲剧性设计:糟糕设计的真正影响以及如何解决.塞瓦斯托波尔:O 'Reilly传媒。

密尔,约翰·斯图尔特[1863](2001)。功利主义.印第安纳波利斯:哈科特。

《内尔点头》(2013)关怀:伦理与道德教育的关系方法,第二版,更新。伯克利和洛杉矶:加州大学出版社。

韦德·l·罗宾逊(2017)。工程伦理:导论.伦敦:布卢姆斯伯里。

罗斯,威廉·大卫(1930)。正义与善.伦敦:牛津大学出版社。

罗纳德·桑德勒(2014)伦理与新兴技术.纽约州:帕格雷夫

塞林格,埃文和弗里希曼,布雷特(2017)。再造人类.剑桥:剑桥大学出版社。

塔瓦尼,赫尔曼(2016)。伦理与技术:伦理计算的争议、问题和策略第五版。霍博肯:威利。

Vallor, Shannon(2016)。技术与美德:一个值得向往的未来的哲学指南.纽约:牛津大学出版社。

Van de Poel, Ibo,和Royakkers, Lamber(2011)。伦理、技术与工程:导论。霍博肯:著名。

van Wynsberghe, A. <为护理设计机器人:以护理为中心的价值敏感设计>。科学工程伦理学19, 407-433(2013)。https://doi.org/10.1007/s11948-011-9343-6

在线资源

创新伦理(2014年克里斯·法比安和罗伯特·法布里坎特在《斯坦福社会创新评论》上发表的文章,包括道德创新的9个原则)https://ssir.org/articles/entry/the_ethics_of_innovation

设计师伦理(来自代尔夫特大学研究员的工具包)https://www.ethicsfordesigners.com/

工程伦理学终极指南(俄亥俄大学)https://onlinemasters.ohio.edu/ultimate-guide-to-engineering-ethics/

国家专业工程师协会道德规范
https://www.nspe.org/resources/ethics/code-ethics

马库拉应用伦理学中心,技术伦理学教学模块(软件工程伦理学介绍,数据伦理学,网络安全伦理学,隐私)
//www.yanareku.com/ethics/focus-areas/internet-ethics/teaching-modules/

马库拉应用伦理学中心,伦理决策资源
//www.yanareku.com/ethics/ethics-resources/ethical-decision-making/

2020年7月13日