跳到主要内容
马库拉应用伦理学中心

反思硅谷的道德培训

Irina Raicu

Irina Raicu

Irina Raicu

本文最初发表于大西洋2017年5月26日。

我在硅谷的一个道德中心工作。

我知道,我知道,“道德”不是大多数人想到硅谷或科技行业时首先想到的词。可能连前10都进不去。但考虑到科技公司现在发挥的巨大作用,是时候关注帮助塑造我们生活的技术人员的道德责任了。

在最近的一次谈话中,技术专家Maciej Ceglowski认为“特别是在今年,科技行业有一种不舒服的感觉,认为我们做错了什么,在遵循我们的信条‘快速行动,打破常规’时,我们推倒的一些东西是我们民主的承重墙。”

这不是不可预见的,甚至是不可预见的。例如,2014年,在一篇题为“Facebook如何决定谁将赢得下届大选Tarun Wadhwa引用了2012年发表的一项研究:6100万人的社会影响和政治动员实验该研究的作者报告了“2010年美国国会选举期间向6100万脸书用户发送政治动员信息的随机对照试验。”结果显示,这些信息直接影响了数百万人的政治自我表达、信息寻求和现实世界的投票行为。”

因此,我们已经知道,“最大化参与”的工具可以塑造政治领域。2014年,瓦德瓦总结道:“不管Facebook是否愿意承担这一责任,它现在已经成为全球民主进程中不可或缺的一部分。”

我们也知道,技术可能对我们的民主有害。侵犯隐私和算法操作例如,它会限制人们研究和形成观点的能力,进而影响人们表达观点的方式——甚至是通过投票。当公司实施有利于定向广告但不利于个人民主参与的做法时(例如,涉及使用Facebook上的“黑暗帖子”该项目与为美国数亿Facebook用户创建心理档案有关),收益与伤害的平衡出现了严重倾斜。

谁在乎这种平衡呢?

你经常听到这样的谚语:法律跟不上技术的发展。道德呢?道德规范也是经过深思熟虑的,新的规范需要一些时间来形成;但是,对一项新发展或新实践的初步伦理分析可能很快就会发生。然而,许多技术专家不被鼓励进行这种分析,即使是表面上的分析。他们甚至没有被教导如何发现道德问题——当他们的一些作品遭到强烈反对时,一些人(当然不是全部)似乎感到惊讶。(比如,你可以看看对现已不存在的谷歌Buzz的批评性报道,或者最近对“Hello Barbie”的反应。)

越来越多的人认为,我们需要为技术人员制定一套道德规范。这只是个开始,但我们需要更多。如果技术可以塑造我们,而技术人员是塑造技术的人,我们应该要求技术人员接受一定程度的道德培训。这种培训不应局限于大学环境;道德培训也应该包括在任何开发人员“训练营”的课程中,或者在科技公司雇佣新员工的入职过程中。

这样的培训不会让技术人员避免做出不道德的决定——没有什么能做到这一点,在某些情况下,我们很可能无法就什么是道德行为达成共识。然而,这样的训练会让他们在面对,比如涉及竞争商品之间冲突的道德困境时,做出更深思熟虑的决定。这将帮助他们做出更好地反映自己价值观的选择。

有时,我们需要消费者和监管机构来抵制大型科技公司。建立一个更好的怪物:道德,机器学习和大规模监控,Maciej Ceglowski认为,“我们对抗科技公司的一个有效手段就是员工压力。”软件工程师很难雇佣,培训成本高,而且需要很长时间才能被取代。”如果他是对的,那么科技公司员工可能拥有比人们意识到的更大的权力,或者至少是他们可以使用的一种额外的权力。因此,我们更有理由要求技术人员至少接受一些道德培训,并认识到他们在捍卫民主方面的作用。

我在一个应用伦理中心工作,我们确实相信技术可以帮助民主(我们提供一个免费的道德决策应用程序,例如;我们甚至提供mooc——一门关于道德竞选的免费在线课程!)然而,要做到这一点,我们需要有人准备好解决伦理问题——无论是在科技公司内部还是外部。

Irina Raicu是圣克拉拉大学互联网伦理项目的负责人雷竞技最新app马库拉应用伦理学中心

本文是民主计划,与《大西洋月刊》合作。

2017年6月26日