跳到主要内容
马库拉应用伦理学中心

解决人工智能的伦理问题

MCAE已加入人工智能伙伴关系。

Irina Raicu

Irina Raicu是圣克拉拉大学马库拉应用伦理学中心互联网伦理项目的主任。雷竞技最新app观点是她自己的。

马库拉应用伦理学中心加入了人工智能造福人类和社会伙伴关系.这一消息是在上周公布的,当天该中心举办了一场名为“人工智能:伦理挑战和快速逼近的未来。事实上,作为小组成员之一的校园道德助理主任布莱恩·格林(Brian Green)通过互联网参与了那次活动——因为他正在柏林参加伙伴关系的新成员会议。

人工智能伙伴关系的成员现在包括企业(如微软、谷歌、苹果、Facebook、亚马逊等)、倡导和民间社会团体(ACLU、大赦国际、电子前沿基金会等)、专业团体(如ACM(计算机协会))以及学术中心(如MCAE、牛津互联网研究所和普林斯顿信息技术政策中心)。作为布莱恩·格林指出,“将所有非常不同的合作伙伴聚集在一起的驱动力”是一个伦理理想:“希望人工智能可以用于伟大的善,人工智能的邪恶用途可以避免。”

要实现这些目标,还有很多工作要做。为此,Brian在最近的小组讨论中谈到了围绕人工智能开发和实施的九个伦理问题:

  • 技术安全(故障、黑客等)
  • 透明度和隐私
  • 恶意使用和邪恶能力
  • 有益使用和为善的能力
  • 偏差(数据、训练集等)
  • 失业/缺乏目标和意义
  • 日益严重的社会经济不平等
  • 道德去技能和衰弱
  • AI人格/“机器人权利”

在小组的问答环节中,当被问及他会优先考虑或最关注哪一个问题时,布莱恩强调了道德技能下降的领域——我们的同事香农·瓦洛(Shannon Vallor)在她的书中也详细讨论了这个问题技术与美德:一个值得向往的未来的哲学指南

观众提出的许多问题也集中在人工智能驱动的失业以及相关的社会经济不平等加剧等更紧迫的问题上。一个近期文章载于《纽约客》他指出,许多人工智能开发者和企业对这些问题保持沉默。它引用了一位研究人员的提问:“现在人们做的事情有哪些是机器人可能做的?”,然后指出,“公司高管想知道这个问题的答案,但他们很少公开提出。”无论是在欧洲还是在美国,自动化都是一个需要大量外交手段处理的话题。”这篇文章还引用了一家自动化仓库工作公司的首席执行官的话,指出他“不愿意谈论(他公司的)客户,因为他们不愿意让人注意到他们对几乎无人仓库系统的兴趣。他说,考虑到我们的政治局势,这有些敏感。‘这就是我们所处时代的现实。’”

然而,我们所生活的时代的现实是,我们不能继续以“巨大的外交”和“敏感”来对待任何与人工智能相关的担忧——至少如果这些术语是让人们对自动化的影响和后果(无论是好是坏)一无所知的委婉说法,我们就不能这样做。

人工智能伙伴关系的另一位新成员,AI Now Institute最近发布了2017年报告,该报告提出了10项具体建议,旨在确保“人工智能的好处得到广泛分享,风险能够被识别和减轻”。正如报告的作者所解释的那样,

人工智能公司承诺,他们创造的技术可以使重复性工作自动化,识别细微的行为模式等等。然而,对人工智能的分析和理解不应局限于其技术能力。下一代计算工具的设计和实现对我们现有的社会、经济和政治关系和制度提出了深刻的规范和伦理挑战,而这些变化已经在进行中。我们必须问,不平等加剧、地缘政治权力集中加剧和民粹主义政治运动等更广泛的现象,将如何塑造人工智能技术的发展和应用,又将如何被人工智能技术的发展和应用塑造。

在中国,一位CEO自豪地说显示了一个《纽约客》记者一个名为“未来:黑暗工厂”的ppt幻灯片,并告诉她,“你不需要工人,你把灯关了……只有当一个美国记者进来时,我们才会开灯。”在硅谷,一位商业教授告诉他的听众,人工智能将无处不在——“就像电力一样”。在波多黎各,飓风玛丽亚过后的几周,大多数人生活在黑暗中,因为电力尚未恢复。

如果要名副其实,“人工智能造福人类和社会伙伴关系”(Partnership on AI to Benefit People and Society)需要阐明布莱恩·格林(Brian Green)最近在圣克拉拉大学(Santa Clara University)演讲中列出的所有问题。雷竞技最新app它需要成为一个自由解决这些问题的地方,以“极其”清晰和直率的方式。

来自pixabay.com的插图,在创作共用许可下使用。

2017年11月6日

订阅我们的博客

指示要求
给我订阅以下博客: