跳到主要内容
马库拉应用伦理学中心

如何控制AI

机器人手里的蝴蝶

机器人手里的蝴蝶

布莱恩·帕特里克·格林

布莱恩·帕特里克·格林(Brian Patrick Green)是马库拉应用伦理学中心技术伦理学主任。

星期二,2月13日th圣克雷竞技最新app拉拉大学邀请了耶鲁大学生物伦理学跨学科中心学者、黑斯廷斯中心高级顾问、联合国和世界经济论坛顾问Wendell Wallach,以及2018年SCU哲学系访问Austin J. Fagothey, s.j.主席。该活动题为“最大限度地降低人工智能风险:人工智能国际和国家治理的敏捷道德/法律模式”,由哲学系、高科技法律研究所、圣克拉拉法学院人工智能俱乐部和马库拉应用伦理学中心共同主办。

人工智能会毁灭我们吗?

在过去的几年里,这个令人担忧的问题一直在许多公众人物的脑海中,包括Elon Musk而且斯蒂芬·霍金,而其他人则如比尔盖茨而且弗拉基米尔•普京(Vladimir Putin)比较矛盾,还有一些人,比如马克•扎克伯格,是彻头彻尾的乐观主义者。

瓦拉他是世界著名的技术伦理专家,也是这几本书的作者危险的主人而且道德的机器他了解那些关注人工智能的人带来的风险。许多讨论人工智能的人似乎认为它会带来天堂或地狱,但瓦拉赫不相信未来会自行发生。相反,人工智能能带给我们什么,当然取决于我们要求它带给我们什么。瓦拉赫认为,为了控制这种技术,我们应该启动一个国际治理项目,帮助控制人工智能,并引导它走向善用,远离恶用。

沃勒克以人工智能讨论的历史和一些早期思想家接触这一主题的naïveté开始了他的演讲。1955年,一些早期的研究人员认为人工智能将在十年内被解决。这显然没有发生。60年后的今天,我们终于可以说人工智能正在经历快速发展,但要模仿人类的技能,甚至在语音和视觉等看似基本的领域,它还有很长的路要走。

除了过去对人工智能的大胆预测,也有关于超级智能的预测——超级智能是一种如此强大的计算机智能,它会让人类在认知上变得无关紧要。沃勒克对这种预测持怀疑态度,因为当代机器人已经比它们的祖先复杂得多,但仍然非常原始。他表示,“还有很大的改进空间”,研究人员可能无法通过现有技术克服一些障碍。

然而,人工智能并不需要超级智能才能给人类带来巨大的问题。正在开发的致命自主武器系统(LAWS或“杀手机器人”)可能会使最重要的生死决定自动化,使其超出人类的控制。沃勒克认为,这类武器应该被禁止,这样,任何研制这类武器的人都将违反国际法。

从哲学角度考虑,Wallach接着指出,定律实际上只是一般自治系统的一个特例;所有的自主系统都会破坏人类的能动性。虽然在工厂或自动驾驶汽车中取代人类代理似乎没问题,但在更重要的情况下,人类决策者应该保持更积极的态度;否则我们会让自己变得无关紧要(除此之外)。

失业是自动化的另一个可预见的副作用,虽然在过去,技术进步导致的失业总是暂时的,但许多人认为这一次将有所不同。沃勒克认为这不仅仅是一个技术问题,而是一个政治经济问题,但无论如何,这都必须得到解决,否则大规模失业可能会扰乱整个国家。

透明度是当代人工智能技术出现问题的另一个领域。深度神经网络是“黑盒子”,输入输入,输出输出,但在两者之间是非常模糊的。为了拥有安全的人工智能,我们需要取证能力,这样我们就可以在事故发生后找出问题所在,或者在第一时间防止事故发生。有偏见的数据也可能是人工智能中意外后果的严重原因——算法可能没问题,但如果输入的数据是垃圾,那么垃圾答案就会出来。

所有这些问题都清楚地表明了治理人工智能的必要性。这种治理应该是灵活的、适应性的、可信的、诚信的、参与性的、全面的、协调的,重要的是国际性的。“零敲碎打”的方法不足以应对新兴技术的新威胁,这些威胁是全球性的,可能是灾难性的。沃拉赫成立了一个名为“为人工智能和机器人构建敏捷治理”的小组BGI4AI他希望这能有助于推动新兴技术国际治理组织的形成。

在问答环节中,瓦拉赫收到了一个关于机器人的问题索菲娅该城市最近获得了沙特阿拉伯国籍。瓦拉赫发现这是一个拙劣的宣传噱头。当被问及非致命性自主武器时,瓦拉赫回答说,致命性和非致命性的界限很难界定,自主武器和非自主武器的界限也很难界定。最主要的问题是需要禁止致命自主武器的明确例子,并使它们不仅非法,而且在道德上不可接受。在接下来的问题中,沃勒克被问到,当我们无法从人类那里得到同样的良好行为时,我们如何期望机器人表现得更好。沃勒克的回答是,我们需要尝试,尽我们所能实现所有的好处,不要让困难的情况阻止我们解决简单的情况。

对于最后几个问题,Wallach继续强调治理和道德的务实方法,任何治理的运动都比没有好。他表示担心我们可能为时已晚,但即使是这种担心也不应阻止我们采取行动做正确的事情。他认为,我们需要特别解决武器技术问题,因为战争是这些极其危险的新技术带来的最大危险。当被问及贫困问题时,瓦拉赫说,他希望这项技术能广泛分享(有一些倡议在推动这一点)。然而,技术最终不能“解决”政治;最终将促进穷人福祉的是政治。

2018年2月23日