跳到主要内容
马库拉应用伦理学中心

论人工智能与公共利益

道德

道德

回复科技政策办公室的信息请求

香农Vallor

最近,联邦科学技术政策办公室发布了一项征求公众意见关于“(人工智能)中的首要问题,包括人工智能研究以及回答这些问题所需的工具、技术和培训。”如请求所述,

联邦政府正在努力利用人工智能促进公共利益,并帮助促进更有效的政府。OSTP正在2016年联合举办四场关于人工智能主题的公共研讨会,以促进关于这些主题的公共对话,并确定与这一新兴技术相关的挑战和机遇。这些主题包括人工智能的法律和治理问题、公共利益的人工智能、人工智能的安全和控制,以及人工智能的社会和经济影响。

《信息征询书》列出了政府希望得到反馈的10个具体主题,包括“人工智能用于公共利益”和“人工智能研究中最紧迫、最基本的问题,这些问题在大多数或所有科学领域都很常见”。

香农·瓦洛(Shannon Vallor)是回应信息请求的学者之一,她是圣克拉拉大学William J. Rewak教授,马库拉应用雷竞技最新app伦理学中心成员之一教授学者。Vallor是SCU哲学系现任主席;她也是负责任机器人基金会(responsiblerobotics.org),哲学及科技学会会长(spt.org),也是“自主系统设计中的伦理考虑全球倡议”的成员。

以下是她提交的评论:

作为一名学者,我曾就包括人工智能在内的新兴技术的伦理影响向许多技术领袖、政策制定者、计算机科学家、机器人专家和软件工程师提供过建议,我发现,OSTP的声明没有提及人工智能研究伦理的重要性,也没有提及政策制定者对人工智能研究、开发和实施的伦理层面的更多理解,这令人震惊和担忧。这是一个必须纠正的重大盲点;对“公共利益”和“公共利益”(出现在上述主题列表的#2和#7中)的模糊引用不足以反映这种需求。

许多国际和跨学科机构已经开始着手解决这一问题——例如,IEEE标准协会的自主系统设计伦理考虑全球倡议,我是其中的一员。

人工智能的伦理层面远远超出了霍金、马斯克、盖茨等人对“超级智能”人工智能超越人类的高度推测性恐惧,而且经常被这种恐惧所掩盖。大多数人工智能研究人员都知道,需要我们立即关注和采取行动的伦理问题要具体得多,而且是近期的:

1.人类对人工智能系统进行适当和有效的监督,特别是那些在人类生死或公共安全问题上发挥直接作用的系统(例如无人驾驶汽车、人工智能诊断专家,如纪念斯隆-凯特林(Memorial Sloan-Kettering)实施的IBM沃森(IBM Watson),以及致命机器人)。

2.人工智能机制和决策过程的道德透明度,特别是人工智能算法和训练数据中的不透明偏见可能导致预测性警务、贷款、教育、住房、医疗保健和就业等领域的不公正结果或政策。

3.人工智能及相关自动化对人类劳动、社会保障与稳定以及经济不平等的大规模影响。

4.人工智能系统和高阶任务日益自动化对人类代理人的智力和道德技能的影响。

5.人工智能对人类情感、社会性、关系纽带、公共话语和公民性格的道德影响;例如,人类对模拟人类情绪反应的人工智能系统形成强大情感依恋的可能性,以及人工智能系统对人类代理人进行情感/心理操纵和商业利用的巨大潜力。

6.“自动化偏见”的伦理风险,即人类已经被证明极大地高估和过度依赖自主系统的智能和能力,通常是基于与人类非常薄的行为相似性。

如果人工智能用于“公共利益”要成为现实,而不是空洞的承诺,这些只是需要OSTP投入大量关注和研究资金的少数伦理问题。

OSTP应考虑如何更直接地鼓励和支持人工智能研究人员和伦理学家已经扩大的跨学科努力,在负责任的人工智能设计、制造和使用方面进行合作;例如,研究基金:

a)人工智能伦理的直接研究

b)为人工智能研究人员和伦理学家之间的成功合作寻找良好模式的研究

c)在所有层次和跨学科的人工智能伦理教育方面开展有效和整合良好的教育计划

d)针对监管机构、政策制定者和其他相关利益攸关方的人工智能伦理教育培训。

人工智能研究的伦理层面将很快使长期以来被认为是生物医学核心的伦理问题在公众中的重要性相形见绌,因为人工智能系统很快将被整合到几乎所有人类机构和实践中(医学只是其中之一)。OSTP将会很好地明确承认和支持努力赶上这一不断增长的需求。

根据“信息请求通知”,可以在线提交回复;报名截止日期为7月22日:https://www.federalregister.gov/articles/2016/06/27/2016-15082/request-for-information-on-artificial-intelligence

图片由Dan Mason提供,未经修改创作共用许可

2016年7月19日

订阅我们的博客

*指示要求
给我订阅以下博客: