跳到主要内容
马库拉应用伦理学中心

设计负责任的、道德的技术:微软案例研究

布莱恩绿色

本文经世界经济论坛授权转载。它最初出现在世界经济论坛博客2020年2月25日。世界经济论坛文章可根据创作共用署名-非商业性-非衍生品4.0国际公共许可,并按照他们的使用条款

本文是与技术伦理主任合作撰写的,布莱恩绿色马库拉应用伦理学中心他是世界经济论坛人工智能和机器学习研究员。观点是他们自己的。

  • 负责任的创新始于文化变革和适当的工具。
  • 微软部署了从一系列新原则到角色扮演练习和员工绩效目标的所有内容,以帮助开发更负责任和更具包容性的人工智能。
  • 在负责任的创新目标上调整员工可以帮助跟踪公司内标准化的进展。

尽管他们的出发点是好的,但在企业中,行为合乎道德的愿望和遵循这些良好意图之间往往存在差距。

我们称之为这个动作的差距.缩小这一差距是确保以更负责任、更包容的方式开发技术的关键。

为了帮助缩小意图与行动之间的差距,世界经济论坛最近启动了一个项目,从那些在技术伦理操作化方面取得进展的组织中挖掘工具、流程和经验教训。该项目研究了微软在其145,000多名员工中实施负责任的创新实践的过程,考虑了公司文化的演变、它所创造的工具和流程,以及这些努力的效果。

这项研究的见解收集在一份题为负责任地使用技术:微软案例研究由世界经济论坛和圣克拉拉大学马库拉应用伦理学中心联合撰写。雷竞技最新app从这项研究中得到的最重要的四个教训总结如下。

1.负责任的创新始于文化变革。

2014年,萨蒂亚·纳德拉(Satya Nadella)成为微软(Microsoft)首席执行官,他带来了“成长型思维模式”。这种方法是由研究人员卡罗尔·德韦克(Carol Dweck)提出的,它考虑了思维如何影响人类的努力。有了这种心态,就有了一个反省、创新和学习的环境,使公司的文化能够更深入地考虑其技术对社会的影响。

这种方法是在一场技术和公关危机之后付诸实践的。2016年,微软在推特上发布了一款名为“Tay”的人工智能聊天机器人,该机器人遭到恶意攻击,以不恰当和诋毁的言论回应。当另一家公司可能已经追究责任或转移责任时,微软发表了公开道歉。该组织及其员工看到了从这一经验中成长的机会,并在许多公司层面上实施人工智能道德。

这一努力导致了微软负责任的人工智能原则的发展,这是2018年建立的一套基本指南。微软通过借鉴过去在将隐私、安全和可访问性集成到其产品中被证明成功的中心辐射型模型,创建了一种治理结构,在整个公司范围内实施了这些原则。

该中心包括三个内部团队。它们包括:

  • 工程和研究中的人工智能、伦理和影响(AETHER)委员会-就制定负责任的人工智能原则提供科学和工程建议和专业知识;
  • 负责任人工智能办公室(ORA) -负责政策治理、敏感使用和教育功能;而且
  • 工程中负责任的人工智能战略(RAISE)小组-使工程师能够实施负责任的人工智能工具和系统。

在这个治理模型中担任辐条的是负责任的AI冠军。这些冠军遍布整个公司,是领域专家,他们为微软负责任的人工智能方法提供建议、协助和提高认识。

此外,微软还制定了负责任的人工智能标准,概述了公司团队必须遵循的一系列步骤,以支持负责任的人工智能系统的设计和开发。这些努力提供了一种精心设计的治理模型的例子,这种治理模型必须到位,以支持文化变革,并在技术领域实现道德规范。

2.工具和技术简化了实现。

在任何变更管理活动中,工具使个人更容易修改他们的行为。这同样适用于技术伦理的操作化。

由于数据科学和机器学习(ML)等专业仍处于起步阶段,工具使从业者更容易解释数据科学模型的性能,提高算法的公平性,并确定对实施负责任的人工智能至关重要的道德问题。

微软的技术工具如InterpretML、Fairlearn和Error Analysis在这一领域做出了重大贡献。具体来说,InterpretML使从业者更容易更好地解释ML模型中的行为。同时,Fairlearn帮助数据科学家评估和改进机器学习模型的公平性。最后,误差分析使数据科学家更容易识别错误率高于基准的队列,并提高模型的准确性。这些工具中的每一个都为用户提供了仪表板,使其更容易可视化模型性能。

然而,我们的研究发现帮助团队从道德上解释他们的工作的工具也是帮助改变行为的关键。对于微软来说,这些形式包括影响评估、展望人工智能研讨会、判断呼叫游戏和社区陪审团。这些工具帮助团队分别使用清单、角色扮演练习和涉众参与来考虑他们产品的潜在后果。有了这些工具,产品团队更容易与受其技术影响的利益相关者建立更大的同理心,而这些利益相关者在技术行业中往往代表性不足。

3.调整和衡量影响可以产生问责制。

许多公司通过员工坚持公司价值观的程度来评估员工的表现。对于任何希望在技术领域实施道德规范的公司来说,他们必须将这一实践扩展到根据公司的道德技术原则来评估和衡量员工绩效。

让微软成千上万的员工遵循负责任的智能原则,始于认知团队,该团队致力于增强现实/虚拟现实、计算机视觉和人工智能技术支持的产品。

认知团队成员在一年两次的目标设定和绩效评估活动中与他们的经理会面,以创建一个共同的目标,根据他们在组织中的角色实施负责任的个性化人工智能。这个系统现在正在推广到其他团队使微软能够围绕其负责任的人工智能工作建立一致性和问责制,同时衡量每位员工的影响。

4.负责任的产品才是更好的产品。

通过负责任的创新,可以开发出“更好”的产品——质量更高、更具包容性、更有利于帮助世界的产品。

为了创造这些更负责任的产品,微软的人工智能原则创造了最高的期望。此工具包有助于设置实现和产品本身开发的路径。它还帮助工程师通过各种ML工具、研讨会和提示对话了解负责任的产品开发的细节。

这些努力的影响已经在一些微软产品的特性中可见一斑,例如空间分析演讲的同意,自定义神经语音,它们分别强调隐私、有意义的同意和透明度。如果没有这些价值承诺嵌入到具体的设计过程中——跨越意图-行动的鸿沟——这些产品可能会以一种不那么负责任的方式设计出来。

这些产品最终根植于实际的伦理思考和行动。在我们的研究中,当我们将微软负责任的人工智能的实现与最佳技术道德实践马库拉应用伦理学中心于2018年发布的报告中,我们发现微软已经实施或已经开始实施其中的大部分实践。例如,微软的人工智能原则直接与收集的六个最佳实践相联系。

图片:世界经济论坛

展望未来

这些教训展示了一家公司如何实施负责任的创新。这些原则、治理模型和工具可以适应并应用于其他技术和组织。

可以肯定的是,改变不会在一夜之间发生。企业文化需要向负责任的创新和道德行为转变。但我们需要的不仅仅是企业文化的巨变,而是整个文化和社会的巨变,因为我们要学习如何利用技术达到最佳目的。认识到这些问题的存在是探索如何解决这些问题的第一步。

随着我们社会越来越多的部门进行数字化转型,更多的组织将需要经历技术伦理的运作过程。如果企业不做出这些努力来改善他们的文化、流程和产品,那么我们不仅无法实现技术为所有人创造更光明未来的承诺,而且还会经历技术损害社会和伤害个人的后果。

这些努力帮助微软实现了他们的想法,缩小了意图-行动的差距。他们现在分享这些经验教训,希望其他人可能会觉得它们有用,并分享他们自己的经验教训。如果更多的企业愿意分享自己的经验,不仅可以实现互利共赢,还有助于提高更多行业对道德思维的期望,并有望在全球范围内带来更大的收益。

2021年3月2日
--

订阅我们的博客

指示要求
给我订阅以下博客: