跳到主要内容
马库拉应用伦理学中心

神经植入:“精神控制”的伦理学

杰兹·贝内斯21岁

StClaire博士/ Pixabay

奔放的贝奈斯21是神经科学、工作室艺术和生物学专业的大四学生,2020-21医疗伦理实习生马库拉应用伦理学中心.观点是她自己的。

在硅谷的中心,我们不断被最新的技术进步所吸引。有影响力的人,Grimes和Lil Uzi Vert宣布他们愿意成为埃隆·马斯克的神经连接大脑植入设备的实验对象,我们不禁怀疑未来的技术是否真的会给我们“神的知识”。人类成为无所不知的生物是自然秩序的一部分吗?谁可以使用这些设备?在向公众发布这样的技术之前,还必须讨论哪些道德方面的考虑?

Neuralink计划使用其脑机接口(BCI)设计,通过解码和刺激神经活动来帮助患有神经和精神疾病的人。为了实现这一目标,该公司计划使用链接包含1024个电极。这些电极可以记录大脑中的信号,解码信息,并将信号刺激回大脑以引发活动。马斯克计划制造这种设备便宜又方便献给所有渴望的人。然而,与该设备相关的任何成本都可能限制社会上能够负担得起的人使用它。通过BCI系统无限制地获取信息,有可能进一步将社会划分为有这种渠道的人和没有这种渠道的人。优越感会产生吗?当其他人不断落后的时候,那些拥有这种设备的人是否有能力达到更高的生活前景?这些担忧可能并不是我们最担心的,因为神经连接公司在2020年夏天的状态更新中宣布,他们目前的主要目标是推出用于医疗目的的设备。尽管如此,Neuralink提出了一些问题,这些问题需要比我们想象的更快地解决。

Neuralink并不是第一家计划开发神经植入医疗设备的公司。在短短2020仅这三个BCI系统就被引入了科技界:Paradromics、Synchron和神经假体。Paradromics神经植入装置将为瘫痪患者提供一种沟通方式。Synchron的BCI系统还为瘫痪患者提供了一种通过打字进行交流的方式。荷兰神经科学研究所的研究人员设计了一种神经假体大脑植入物,可以呈现人造视觉。2020年之前开发的大脑植入物包括用于恢复视力的“第二视力”、用于恢复听力的耳蜗植入物、用于治疗运动障碍的脑深部刺激,以及用于治疗癫痫和难治性抑郁症的迷走神经刺激。

为残疾人社区开发技术所产生的一个重大问题是,假设残疾人希望拥有某些有能力的人所定义的能力“正常的”。残疾人可能会反对旨在使他们符合健全标准的技术。“正常”是相对于每个个体而言的,使用缺陷的观点来看待残疾可能是有害的,这意味着将残疾视为缺陷。然而,这并不是说所有的残疾人都会拒绝一项可以增强他们能力的技术。相反,我认为这是在为残疾人社区开发技术时必须认识到的一个考虑,而且只能通过与残疾人的沟通来解决。因此,我认为这是一个必须与该技术为其开发的社区——残疾人——进行的对话。

在实施该技术的侵入性手术时,另一个伦理考虑是获得知情同意和自愿参与。有些人可能无法表达他们对与他们参与相关的风险和好处的理解和接受,因为这些神经植入装置是为了改善沟通和发展运动能力。没有明确的知情同意或参与,我们就不能尽职尽责地尊重个人的自主权。必须采取措施确保个人了解在大脑中植入设备的风险和好处。此外,随着新技术的进步,开发商可能不会完全意识到未来潜在的风险。

通过旨在解决残疾的技术,我们在治疗和增强之间走得很好。虽然不是第一个神经植入医疗设备,但Link可能是第一个公开讨论的BCI系统潜在的超人类主义用途比如“增强的认知能力、记忆存储和检索、游戏、心灵感应,甚至与机器共生。”由于美国食品和药物管理局尚未批准将Link用于人体测试,我们无法准确评估该设备潜在的积极或消极结果。相反,我们可以看看以前的技术,它们的意图是有益的,但结果是有害的。

社交媒体可能并不完全属于超人类主义的范畴,但它旨在增强人类的社会体验。这些社交平台努力将我们与家人、朋友、新闻和其他兴趣更好地联系起来。然而,研究表明许多美国人认为社交媒体危害我们的社会。研究表明社交平台的上瘾特性会对我们的行为产生负面影响心理健康.其他调查显示,美国人认为社交媒体是造成这种现象的罪魁祸首极化社交平台的负面影响与初衷相反,但它表明了新技术带来的意想不到的影响。

此外,许多人担心互联网平台会将我们的信息出售给第三方。网站并不是共享我们数据的唯一作恶者;甚至有生物技术工具可以做到这一点,比如23 andme.当然,有很多方法保护或删除我们的数据阅读细则,不同意具体条款。然而,仍然有一些规定阻止我们完全控制我们共享的信息。对于任何可以记录我们的生物或个人数据的系统,我们必须小心保密和隐私保护。

随着BCI系统记录和解码神经元活动,问题变得更加复杂——同样的活动编码了我们的思想、个性、决定、记忆、行动以及构成我们的其他一切。这些设备记录的信息构成了每个人的人类经历,我们可能会将看似复杂的生活简化为一些可记录和可共享的数据。这些系统让我们思考作为人类意味着什么。如果人工智能在几秒钟内就能解码构成人类体验的大脑电活动,这对人类来说意味着什么?

有了这样的问题,我们似乎陷入了矩阵黑镜子,或者一个瑞克和莫蒂一集。即便如此,重要的是要认识到,随着技术和科学的进步,我们面临着放弃自由意志的风险。许多脑机接口设备通过获取我们的内源性电神经活动并将其转换为刺激其他电脉冲来执行其功能。如果一个四肢瘫痪的人想要打一封信,机器的输出导致一个字母被打出来,谁或什么是这封信的创造者?是人类的思想还是计算机系统?在人工智能作为思想和行动之间的中介的情况下,我们与自决斗争。此外,假设这些设备具有将内部神经活动传递到外部世界的能力。在这种情况下,设备安全必须是一个高优先级,这是开发人员所关注的Neuralink正在寻址。关于我们与技术的互动还有进一步的讨论。

这里概述的伦理考虑并不意味着BCI系统会出现最坏的情况,也不是说最好的情况会发生。我们分享的想法旨在促进我们的思考,以确保我们尊重个人、社会和整个生活。

这是一个复杂问题的简化版。请在下方评论继续讨论。

2021年3月1日

订阅道德中心博客

指示要求
给我订阅以下博客:

给道德中心做一份礼物

马库拉应用伦理学中心提供的内容在一定程度上得益于我们社区的慷慨财政支持。在你们的帮助下,我们可以继续开发帮助人们看到、理解和解决伦理问题的材料。