跳到主要内容
马库拉应用伦理学中心

医疗保健领域的人工智能革命

人脑与技术和计算机图像的叠加图。

人脑与技术和计算机图像的叠加图。

克拉丽莎银

克拉丽莎·西尔弗斯(Clarissa Silvers)主修生物工程,专注于生物分子工程,辅修设计、创新和创业。她也是2021 - 22医疗伦理实习生马库拉应用伦理学中心.观点是她自己的。

人工智能(AI)正在彻底改变医疗保健,无论是在成像、诊断还是医院的工作流程优化方面。各种临床和医疗保健应用程序已经浮出水面,以帮助评估患者的症状并确定诊断。经济学家预测,未来几年,医疗保健行业的人工智能应用将大幅增长。一项分析预计2014年至2021年,市场规模将增长10倍以上。但这种预期的增长伴随着道德挑战,包括知情同意、算法偏见和数据隐私。

医疗保健应用中的人工智能使知情同意程序复杂化。医疗服务提供者有义务在多大程度上教育患者了解人工智能的复杂性?提供者是否需要告知他们的患者系统正在使用什么类型的机器学习,什么类型的数据正在输入到系统中,以及给定数据集可能存在什么偏差?提供者是否必须通知患者正在使用人工智能?这些都是在临床环境中使用人工智能时需要考虑的问题。

当许多人工智能程序使用时,告知患者尤其困难“黑盒”算法.这些程序被称为“黑箱”算法,因为即使是这些程序的发明者也不知道软件是如何达成共识的。这种对人工智能背后的理解的缺乏也导致了知情同意的问题,当医疗专业人员自己不理解人工智能程序是如何做出决定的。

其次,AI算法必须使用可信和公平的训练数据集,以确保程序的决策技能不会助长歧视。如果没有可靠的训练数据集,系统可能包含偏差,这可能会在医院应用中产生有害的结果。“垃圾进,垃圾出”的口号在这里有很大的适用性。人工智能制造商必须通过考虑数据质量和数据集的多样性,在开发过程的所有阶段尽量减少偏见。一个例子这是一个基于人工智能的临床决策支持软件,可以帮助提供者为皮肤癌患者选择最佳治疗方案。然而,该算法主要针对白人患者进行训练,对于其他人群,特别是有色人种,结果不太准确,甚至不准确。这些有缺陷的项目使医疗保健系统内对那些已经被边缘化的人的歧视永久化。

最后,此数据收集导致隐私问题.当涉及到一个人的医疗记录时,这一点尤其重要。如果医生和病人之间的保密被破坏,人们对人工智能的信心可能会随之而来。个人健康数据的潜在泄露可能会影响健康保险费用、工作机会,甚至个人关系。这一点在人工智能健康应用程序方面尤其令人担忧。这些患者数据不仅与医生共享,还可能与家人和朋友共享。不像医生需要保密,朋友和家人不需要。同样,如果患者在人工智能软件分析后决定撤回他们的数据,在不完全破坏算法的情况下,可能不可能从算法中提取这些数据。这些只是在医疗保健中使用人工智能所带来的许多数据隐私问题中的一部分。

人工智能在临床应用中有很大的前景,尤其是在成像和诊断方面。美国食品和药物管理局(FDA)已经批准了40个人工智能医疗设备了。2018年4月,IDx-DR是第一种获得FDA批准的产品。该产品是一个人工智能诊断系统,可以在不需要人工解释结果的情况下,为检测某些与糖尿病相关的眼部问题提供决策。这只是众多新产品中的一个例子。

它是预测到2030年,人工智能可能为全球经济贡献高达13.33万亿欧元,其中中国和北美的收益最大。这种巨大的预期增长只会强调这些伦理问题的重要性。在医疗保健领域构建人工智能算法时,知情同意、算法公平和高度数据保护是必须考虑的关键因素。如果不解决这些问题,对人工智能的不信任将开始增长,人工智能的巨大潜力和实用性可能会被埋没。

2022年6月1日

订阅道德中心博客

指示要求
给我订阅以下博客:

给道德中心做一份礼物

马库拉应用伦理学中心提供的内容在一定程度上得益于我们社区的慷慨财政支持。在你们的帮助下,我们可以继续开发帮助人们看到、理解和解决伦理问题的材料。