跳到主要内容
马库拉应用伦理学中心

关于数据伦理:Mark Nelson的访谈

肖像

肖像

“一些伦理问题必须通过更结构性的手段来解决。”

杰夫Kampfe

欢迎来到“饼干、咖啡和数据伦理”!我叫杰夫·坎普夫,是圣克拉拉大学经济学和哲学专业的大四学生。雷竞技最新app我也是Hackworth研究员马库拉应用伦理学中心本文是一系列访谈中的第六篇,涉及热咖啡、美味的烘焙食品和复杂的数据伦理问题。这些访谈的目的是了解具有独特和深刻观点的个人可以教我们什么领域的数据伦理,它的发展方向,以及我们在前进的道路上可能面临的挑战。谢谢你过来!

以下是经过编辑的与研究员马克·尼尔森(Mark Nelson)的对话记录。

马克·尼尔森创立并共同指导斯坦福大学和平创新实验室.他专注于设计、催化、激励和产生资源,以扩大集体积极的人类行为。他教授技术干预的设计,可显著提高跨差异边界的积极、互利的参与。尼尔森也是斯坦福行为设计实验室(以前是说服技术实验室),以及斯坦福大学的科茨梅茨基全球合作实验室。

你能告诉我你是如何参与到数据技术和人类行为的交叉领域的吗?

和平创新实验室最初是BJ Fogg的一个项目说服技术实验室.早在90年代初,他的两位顾问拜伦·里夫斯(Byron Reeves)和克利夫·纳斯(Cliff Nass)就注意到,当你把传感器和驱动器放在技术上,使其具有交互性,而不是其他“愚蠢的”广播媒体时,人类开始将其视为独立的社会代理。我们把它当作一个实体,而不仅仅是一件东西。

因为人类的内部状态千变万化,取决于我是刚刚患了流感还是还没喝咖啡,所有这些事情都会影响我们的内部状态。所以作为人类,特别是对我们最亲近的人来说,我们有认知和情感的过滤器,可以让我们忽略周围人的状态。我们对最亲近的人尤其如此。如果你的伴侣醒来后和你过不去,你可以意识到他们只是没睡好。这并不是你们婚姻的终结,只是他们没睡好。

相比之下,当我们与科技互动时,我们的体验明显平淡无奇。这种体验非常统一,因为我们的过滤器从来不会被技术触发。结果是,技术可以以其他人永远无法做到的方式影响我们。我们不会允许生活中最亲近的人影响我们,就像我们每天都允许科技影响我们一样。此外,很多这种影响都是无意识的。所以Byron Reeves和Cliff Nass意识到技术现在是一个有说服力的演员,我们需要开始以这种方式研究。这项技术的独特之处在于,现在一个12岁的孩子周末在他们的卧室里就可以编写一个应用程序,在几周内改变数百万人的行为。

这是我们人类从未有过的力量。所以对我来说,很多道德问题都是从这里开始的。我们还知道,公司和政府都将以各种可怕的方式滥用数据技术;这似乎是不可避免的。他们的想法是“如果我们不使用它,我们的敌人就会使用它,所以我们必须使用它。”但我们能不能至少试着把数据技术用在好的方面。所以BJ福格开始研究如何将其应用于世界和平。

这就是我开始介入的地方。从劝导技术的角度来看,我们最终得到的,是作为工业副产品的个人可识别行为数据。当我们试图教人们为积极的社会目的设计有说服力的技术时,我们所做的几乎所有事情都是在一个非常高分辨率的水平上处理人类行为数据,这是以前从未有过的。

从科学和研究的角度来看,这是不可思议的。如果你看向窗外,你可能会看到我们文明所依赖的基础设施。有交通网络,有电力网络,有通信网络,我们所知道的文明没有它们就无法运转。有趣的是,在你和我之间有一种看不见的关系。所有其他基础设施和我们建立所有这些其他网络的能力,都取决于我们的关系。人际关系是潜在的无形基础设施,使所有其他基础设施成为可能。但因为这些关系是看不见的,所以很难知道我们是否看到了同样的事情。

在我们的实验室里,我们要做的很大一部分工作就是使潜在的关系基础设施可见。首先,这样世界就能看到它,建造它的人也能对他们的建筑得到适当的认可。第二,使其可投资。如果我们能够以同样的方式看待我们的人际关系,我们可以看看我们的基础设施,并说“嘿,那个坑洞需要修补”,对人际关系的投资决策,特别是商业关系,可以迅速得到极大的改善。

我所知道的模拟这些关系的最佳方法是参与行为的个人片段——因为如果我们想了解两组人之间的关系,我们只需汇总每组人的个人数据。如果我们可以做比较分析,特别是实时分析,如果我们想要好的结果,我们就会让每一组人这样做,然后对彼此这样做。所有这些人际交往都开始变得经验性,这在我们这个物种中是不可能的。

优秀数据科学家的美德或价值观是什么?在实践中是什么样子的呢?

在某种程度上,预先预测技术的使用可能会产生什么意想不到的后果是不可能的。你需要做的关键事情之一是系统地减少伤害。我们一直在做的是应用上次人类从技术中获得新的超能力时的最佳实践,那就是航空。为了尽可能以最合乎道德的方式运作,你需要一份技术设计师的飞行员清单。

例如,我们在法学院和其他大学的法律系有很棒的同事,他们让我们很沮丧,因为他们来找我们,为道德和平技术写了很好的设计原则,上面写着“规则#1 -不伤害。”这总能让房间里所有的工程师和设计师难以置信地抬起头来。所以你作为律师的意思是你就坐在那里等着工程师们犯错然后你就会惩罚我们。

相比之下,你看到的技术设计相当于十诫。从历史上看,我认为规则集的很大一部分价值,如果你把宗教代码或法律代码看作是协调大群体行为的基本社会代码,这些命令集必须是禁止的。“你不应该……”

相比之下,在飞机起飞前,飞行员可以说“放下襟翼”。然后他们可以看向副驾驶,副驾驶会说“确认”。然后他们都可以按下开关,并有视觉记忆,按下开关,在同一页上。因此,技术设计的趋势正在向禁止性设计的相反方向发展。有一些非常清晰的行为,每个人都能看到,就像驾驶舱的开关一样。这里有一些关于伦理的结构性的东西如果你把它减少到你必须做的行为和你必须做的顺序的特定程度。

飞行前检查表也很有效,因为人们不需要在出了问题后受到处罚。问题通常会被当场发现,每个人都能认出来。

第一个结构性的解决方案是让事情变得更具体,更有道德。第二种观点是,你可以让事情变得更道德通过让它们更规范而不是禁止。第三件事是你有各种各样的结构元素和记忆辅助工具,帮助你实时执行这些操作。第四件事是按照正确的顺序做事。按照正确的顺序做事,帮助人们以正确的顺序看待事物,这是非常道德的。

这些都是我从未听人讨论过的伦理问题。我们假设每个人都必须做正确的事情,但问题是我们假设每个人都已经知道正确的事情实际上是什么。

与禁止到规定的转变相关的是惩罚到奖励的转变。当你在进行社会代码的人类计算时,目标是减少许多人一起工作的摩擦。如果你从历史上看这些代码是如何发展的,当我们开始有大量人口居住在中亚的一个河边的小城市时,你就开始有协调问题。被创造出来的社会代码正在人类的大脑中运行。这本质上是在一个大型网络中运行的大规模并行人类计算。

人类的大脑就像湿件一样具有威胁意识。随着时间的推移,人类的大脑在判断因果关系方面非常薄弱。但如果它能发现因果关系,那么如果结果是消极的,它就比发现结果是积极的要好得多。所以真正起作用的是基于惩罚的系统,因为人类的处理是缓慢而分散的。如果我想让你记住去年不该做的事,我就可以为你去年做的事惩罚你。

然而,现在硬件已经发生了变化。我们都随身携带着本质上是超级计算机的东西,可以在世界上几乎任何地方接收信号。我们正在看到一个根本的伦理变化,计算现在可以在奖励上运行。如果你在环境中部署了传感器,可以检测到你想要的行为何时发生,你可以立即部署奖励,奖励可以比惩罚强大得多。

以《Candy Crush》为例。游戏奖励的半衰期以秒为单位。当你触碰屏幕的那一刻,它就会在你面前触发一连串糖果,这些糖果闪闪发光,颜色鲜艳,触发你大脑中的化学反应。所以在结构层面上,我们看到了一种转向微小奖励的转变。

这种向奖励系统的转变如何影响个人的自主性和决策选择?

很多人听到这句话,认为这是一个更好的世界,因为我们看到奖励优先于惩罚。然而,首先,当我们从一个系统切换到另一个系统时,会有各种各样的道德混乱。一个例子是在路上开车:道路上没有“正确”的一侧可以开车;重要的是,我们都同意在道路的某一边开车。人类绝大多数的不良行为都是无意的。人们通常不会在上班的时候想开车撞死别人,这种事就会发生。

很多道德问题并不是关于如何让人变得更好或给予惩罚。一些伦理问题必须通过更结构性的手段来解决。飞行员的检查表是一个道德得多的命令集,因为它有一个更精确的结构。目标是帮助增强人们的决策能力,并帮助他们在正确的情况下做出正确的决定。至少对我来说,很多道德规范都是在结构层面上的。

你对数据所有权有什么看法?围绕这个主题需要解决的最大问题是什么?

如果有什么完美的解决方案,我还没有找到。

我更关注的是如何让人们安全地分享和使用他们所拥有的数据——无论他们是如何获得这些数据的。我认为这对社会来说是一个更有成效的问题,而不是关于数据是谁的问题。我更关心的是你可能会如何处理关于人们的数据,特别是你可能会如何使用这些数据来对付他们,从长远来看,我们能解决这些问题的唯一方法是承认数据的本质是被分发的,因为它只能通过比较和交换来创造价值。

“这是谁的数据?”是有严重缺陷的,因为数据不像物质。它更加无形。在经济学中,有一些关于持久财富和持久财富的概念;数据可以成为持久财富的教科书式例子。但我们围绕数据建立的许多法律都有不同的理念嵌入其中。我认为时间会证明这些都是行不通的。

然而,随着我们的新技术,我们必须采取迭代的方法。没有人确切地知道事物应该如何构成,所以我们必须进行大规模的并行实验。每一个实验都必须记录所有的细节(我们应该对记录失败特别感兴趣),因此任何失败都只会伤害到一小部分人。

结果是一套专业实践,如前面描述的飞行前检查清单。现在有了这些实践,任何飞行员都可以飞到世界上任何地方,安全抵达,拥有我们作为一个物种所建立的最安全的运输系统。此外,飞行员的宗教、性别、种族等几乎对他们在该系统内操作的能力没有影响。我觉得这是非常道德的。

有关本系列以前的文章,请参见“数据伦理:雅各布·梅特卡夫访谈,”“数据伦理:与Shannon Vallor的访谈,”“数据伦理:Michael Kevane访谈,"数据伦理:d·j·帕蒂尔访谈"和"数据伦理:伊曼·萨利赫访谈."

2019年5月31日

订阅我们的博客

指示要求
给我订阅以下博客: