跳到主要内容
马库拉应用伦理学中心

老年人、看护机器人和欺骗:我们该怎么办?

朱利安·德莱曼' 21

Possessed-Photography / Unsplash

利害关系:

一场“银色海啸”正在美国逼近:目前65岁及以上的老年人口为4800万,到本世纪中叶,这一人口预计将增加近一倍,达到8800万。我们最年长的公民在哪里变老?在家里。美国退休人员协会(AARP)最近的一项调查发现,76%的50岁及以上的美国人更愿意在他们目前的房子里养老。但截至2016年,830万人(其中大多数是老年人)在长期护理服务的帮助下变老,如长期护理设施(LTCFs)、家庭保健提供者和临终关怀。关于老年人护理的数据和统计数据很少,但有一个事实仍然清楚,老年人和他们的照顾者面临着许多问题。老年人经常面临孤独、社会孤立和社会对其护理的普遍冷漠,而护理人员则面临长时间工作、复杂的问题,他们并不总是接受过培训,工资很低或没有工资。

护理分为两类,专业(有偿)护理人员和家庭(无偿)护理人员。专业护理人员大约有450万人,与在朋友和家人家中免费工作的5300万家庭护理人员相比,相形见绌。护理很贵。2016年,长期护理服务支出占医疗补助总支出的30%,2017年,美国非正式护理人员免费工作340亿小时,价值4700亿美元。无论从哪个方面看,美国都面临着护理危机。正式照护者人数太少,工作负担过重,而太多的非正式照护者从事的工作没有经过培训,也没有报酬。

看护机器人:潜在的解决方案?

为了解决这一护理危机并填补护理空白,技术人员和护理人员正在转向机器人和人工智能(AI)。日本的“灰色浪潮”正在达到顶峰,在采用护理机器人(通常被称为carebots)方面处于世界领先地位。在日本和世界范围内,最常见的看护机器人是机器人伴侣“动物”。这些动物形状的看护机器人陪伴着老年人,通过与他们互动,并用适当的动作和声音回应身体和音频问题。Paro是一款非常受欢迎的伴侣看护机器人“海豹”,它已经证明,它可以减少老年人的孤独感,据说还能让老年人更冷静、更健谈、更善于交际。Carebots有很多用途。例如,Robear是一个大型的熊型机器人,它可以移动老年人进出床上、浴室和其他难以到达的位置。此外,像CareCoach这样的创业公司建立并销售基于人工智能的虚拟助手,与老年人互动,密切关注他们的行动和医疗需求,并在危机时刻呼叫紧急服务。[9]

毫无疑问,护理机器人将在未来的护理中发挥必要的作用,但重要的是在这里停下来,陈述一些关于这种用途的规范性声明。首先,看护机器人并不能完全替代人类看护。它们可以更有效地执行某些任务,或减轻非正式照顾者的困难负担,但确保人类继续以某种能力照顾人类是至关重要的。由父母抚养长大的孩子在道义上有义务反过来照顾他们。此外,甚至可能存在更广泛的代际责任,让年轻人照顾老年人。其次,护理机器人将有助于降低护理成本,但这并不意味着护理人员有权降低护理的数量或质量。事实上,成本的降低应该会增加人们的负担能力和获得高质量医疗的机会。简而言之,降低的成本应该转嫁给老年人及其家庭,而不是企业。

成本只是围绕着carebots的众多道德困境之一,另一个重要的问题是其欺骗性。有人可能会问,如果这种欺骗最终符合成年人的最大利益,那么看护机器人欺骗老年人是否可以?如果一个老年人错误地相信他们的看护机器人伴侣真的会说话和思考,这是欺骗吗?当一位老人问他们去世已久的父母什么时候来探望时,看护机器人该如何回应?(详情见下文。)

在继续之前,停下来做几个重要的笔记是很重要的。首先,看护机器人所展示的任何代理都是从构建、开发和编码它的人类衍生出来的。到今天为止,机器人的动作,即使是那些具有复杂运动功能和被认为具有代理功能的机器人,也依赖于它们的人类创造者。其次,接下来我将引用斯坦福哲学百科全书中对欺骗的定义,“故意造成一个已知或被认为是错误的错误信念。第三,我将触及欺骗和操纵的区别,并将操纵定义为“通过巧妙或不公平的手段来改变,以达到某人的目的”。“[11]

道德方面的考虑:

人们经常问一个宽泛的问题,欺骗在道德上是可以接受的吗?德国哲学家伊曼努尔·康德认为,欺骗总是错误的。为什么?康德认为,正如当代哲学家拉斯·谢弗-兰道(Russ Shafer-Landau)所说,我们必须“始终尊重他人,因为他们本身就是有价值的。”欺骗他人是将他人仅仅视为达到目的的手段,从而违背了将他人视为有价值之人的义务。功利主义者可能会有不同的回答。例如,约翰·斯图尔特·密尔会认为,某些形式的欺骗只要带来的快乐多于痛苦,就是正当的。当一个杀人犯敲开你的门问你妹妹是否在家时,密尔会恳求你撒谎而康德会说你必须如实回答。在老年人和看护机器人的背景下,我相信正确答案介于康德和密尔之间,但更接近康德。下面我举两个例子来说明,在非常有限的情况下,如何以及何时可以通过carebot欺骗老年人。

首先,在考虑欺骗、看护机器人和老年人时,我们应该详细介绍一些必须牢记的基本规则。

  1. 做好事,尽量减少伤害。这是医疗保健的基本道德义务,在老年人护理方面更是如此。为什么?因为与年轻人相比,老年人面临着更关键和更多的医疗保健决策。
  2. 使用看护机器人的目的应该是为了老年人的最佳利益。他们的主要职责是改善护理,其他一切都应该是次要的。
  3. 老年人护理属于特殊的、受保护的一类。许多老年人比一般人更脆弱,因此应该受到更大的尊重和照顾。
  4. 采取行动保护老年人的自主性和能动性。随着老年人年龄的增长,一些人的自主性和能动性往往会下降。至关重要的是,看护机器人不能进一步减少它们。
  5. 操纵行为在道德上永远是不正当的。利用老年人仅仅作为达到自己目的的手段是绝对的道德错误。
  6. 欺骗可能导致背叛和不信任的感觉。欺骗是一种有风险的工具;当它被过度使用时,它会产生复杂的负面后果。
  7. 欺骗应该是最后的手段。从道德上讲,依靠另一种形式的回答总是更可取的,例如,回避问题或重新引导对话。

示例案例:

询问已故父母

•85岁的山姆(Sam)正在经历老年痴呆症,他问他的人工智能护理助理“妈妈什么时候来看我?”山姆的母亲几十年前去世了,但由于痴呆症对他的认知能力的影响,山姆不记得也不知道这件事。此外,如果山姆被提醒他母亲的死,根据以往的经验,他会变得沮丧、愤怒和悲伤——他甚至可能指责看护人撒谎,从而破坏信任。山姆的人工智能助手应该如何回应?我认为,在这种情况下,助理的欺骗行为是正当的。为什么?Sam的问题对他的整体护理结果的影响相对较低,因此降低了他获得充分信息的门槛。更重要的是,如实回答他的问题会造成更大的伤害(让他想起他母亲的死,让他变得沮丧、愤怒、悲伤,甚至指责),而不是告诉他真相所带来的好处(把他当作一个值得被告知真相的代理人)。虽然助理的欺骗可能是合理的,但它应该只在万不得已的时候才使用欺骗,而不是试图避免回答问题或转移话题。

•85岁的莎莉(Sally)头脑非常敏捷,她问她的人工智能护理助理:“妈妈什么时候来看我?”和山姆一样,莎莉的母亲也在几十年前去世了,但与山姆不同的是,莎莉知道这一点,她开玩笑或实验地问她的助手,看看它会有什么反应。如果有人提醒莎莉,她的母亲已经去世了,她不会有消极的反应,相反,她会满怀深情地回忆起和她一起度过的时光。莎莉的助手该如何回应?在这种情况下,助手的欺骗行为是不正当的,因为莎莉有很高的认知能力,这让她很容易看穿企图的欺骗,理解场景的细微差别。对Sally的欺骗行为是错误的,因为这无疑会造成更多的伤害和好处,把她仅仅当作一种手段。

关于手术的欺骗

夏洛特95岁了,她已经失去了大部分的认知能力。她无法理解医学世界的复杂性,对复杂的对话缺乏耐心。夏洛特有一个护理机器人,她可以和机器人谈论她所有的医疗问题。夏洛特的医生建议她做手术,这对她的健康至关重要。手术有效率为90%但死亡率只有0.01%在夏洛特的护理人员受过良好教育的医学意见中,手术对她最有利。夏洛特可能会有一些关于手术的疑虑或简单的问题要问她的看护机器人。即使看护机器人认为夏洛特可能不理解完整和复杂的答案,或者通过回答问题夏洛特可能决定拒绝手术,看护机器人也不应该欺骗夏洛特。为什么?手术对她的治疗结果有很大的影响,因此属于绝不允许欺骗的重要类别。

•查尔斯的处境和夏洛特差不多,但他的认知能力很高。在同样的手术场景中,Charles的看护机器人也不允许使用欺骗手段。为什么?因为手术对他的治疗结果有很大的影响,查尔斯有很高的认知能力。有了高认知能力,就需要把查尔斯视为一个完全自主的代理人,值得尊重和真相。

决策矩阵:

欺骗是正当的吗?

对护理结果有很大影响

对护理结果影响较小

高认知能力

从来没有的

从来没有的

认知能力低

从来没有的

很少的

最后的想法:

在为老年人的需求和复杂性构建看护机器人时,还有几个最后的考虑因素需要牢记。首先,患有痴呆症的老年人可能缺乏清晰或连贯地说话的能力。许多具有语音能力的看护机器人依赖于自然语言处理能力,但由于语音不清晰,其效率会降低。如果想让所有老年人都能广泛使用看护机器人,就必须解决说话不清楚的问题。

同样,看护机器人也需要能够满足每个患者的独特需求和个性。Carebots必须能够同时与“Sam”和“Sally”一起工作。这需要了解病人,这也会带来危险。看护机器人必须把病人的隐私放在最重要的位置。老年人的个人资料会储存在哪里?要多久?老年人的个人资料会否出售给第三者?看护机器人容易被黑客攻击吗?这些问题应该在这些技术广泛部署之前得到解答。

看护机器人还必须能够复制人类看护人的机智。Carebots应该能够识别需要预谋的多种场景,并能够在意外场景出现时快速适应。对于看护机器人来说,始终确保老年人服药(保持常规)是很重要的,但同样重要的是,看护机器人知道老年人不寻常的声音和动作是表示痛苦还是快乐(适应意外的能力)。

护理机器人的设计师必须考虑何时设计一个基于程序的护理机器人,何时允许它在工作中学习。基于程序的看护机器人遵循内置的硬编码规则,在低技能重复性任务(例如倒水杯)中最有用。学习型看护机器人能够适应各种情况,并学习如何在每个特定场景中采取行动(例如波士顿动力公司的Spot机器人)。如果一个看护机器人要在许多老年人中使用,它需要理解上下文切换。一个有正当理由欺骗一个老年人的看护机器人可能没有正当理由欺骗下一个。

未来,看护机器人可能会在协助护理人员方面发挥至关重要的作用,虽然护理对时间很敏感,但重要的是停下来考虑一下大规模采用看护机器人的影响。作为一个社会,我们是否希望机器人照顾我们最年长的成员,如果是的话,它们应该如何表现?对人类看护人进行大规模再培训是更合适的选择吗?如果你是一个老年人,你愿意花多少时间和看护机器人在一起,而不是和人类看护人在一起?

引用:

芭芭拉·希尔,“世界老年人口急剧增长”,美国国立卫生研究院,2016年3月28日。可以在:https://www.nih.gov/news-events/news-releases/worlds-older-population-grows-dramatically#:~:text=Highlights%20of%20the%20report%20include,to%2076.2%20years%20in%202050

Joanne Binette, Kerri Vasold“2018年家庭和社区偏好:对18岁以上成年人的全国调查”美国退休人员协会研究。2019年7月。可以在:https://www.aarp.org/research/topics/community/info-2018/2018-home-community-preference.html

[3] Harris-Kojetin L, et al,美国长期护理提供者和服务用户,2015-2016。国家卫生统计中心。生命健康统计3(43)。2019.可以在:https://www.cdc.gov/nchs/data/series/sr_03/sr03_43-508.pdf

苏珊·c·莱因哈德等人,《评估无价的东西:2019年更新》,美国退休人员协会公共政策研究所,2019年11月。可以在:https://www.aarp.org/content/dam/aarp/ppi/2019/11/valuing-the-invaluable-2019-update-charting-a-path-forward.doi.10.26419-2Fppi.00082.001.pdf

[5] Harris-Kojetin L, et al,美国长期护理提供者和服务用户,2015-2016。国家卫生统计中心。生命健康统计3(43)。2019.可以在:https://www.cdc.gov/nchs/data/series/sr_03/sr03_43-508.pdf

苏珊·c·莱因哈德等人,《评估无价的东西:2019年更新》,美国退休人员协会公共政策研究所,2019年11月。可以在:https://www.aarp.org/content/dam/aarp/ppi/2019/11/valuing-the-invaluable-2019-update-charting-a-path-forward.doi.10.26419-2Fppi.00082.001.pdf

哈蒙,艾米。《电路的软肋》,《纽约时报》纽约,纽约。2010年7月4日。可以在:https://www.nytimes.com/2010/07/05/science/05robot.html?_r=2&pagewanted=1

疏通,斯图尔特。“Robear:熊形的护理机器人,会在你老了的时候照顾你。”《卫报》,2015年2月27日。可以在:https://www.theguardian.com/technology/2015/feb/27/robear-bear-shaped-nursing-care-robot

微笑,劳伦。“当我们让科技来照顾年迈的父母时会发生什么?”《连线》,2017年12月19日。可以在:https://www.wired.com/story/digital-puppy-seniors-nursing-homes/

[10]马洪,詹姆斯·埃德温,“说谎和欺骗的定义”,斯坦福哲学百科全书(2016年冬季版),爱德华·n·扎尔塔(编)。可以在:https://plato.stanford.edu/archives/win2016/entries/lying-definition/

[11]韦氏词典,“操纵的定义”,韦氏词典。可以在:https://www.merriam-webster.com/dictionary/manipulation?src=search-dict-hed

Shafer-Landau,俄罗斯。伦理学基础。纽约:牛津大学出版社,2015年。

Shafer-Landau,俄罗斯。伦理学基础。纽约:牛津大学出版社,2015年。

波士顿动力公司,Spot自动机器人。可以在:https://www.bostondynamics.com/spot

2021年6月3日

给道德中心做一份礼物

马库拉应用伦理学中心提供的内容在一定程度上得益于我们社区的慷慨财政支持。在你们的帮助下,我们可以继续开发帮助人们看到、理解和解决伦理问题的材料。