跳到主要内容
马库拉应用伦理学中心

自动完成

截图

截图

“谷歌……?”

Irina Raicu

Irina Raicu是圣克拉拉大学马库拉应用伦理学中心互联网伦理项目的主任。雷竞技最新app观点是她自己的。

很久以前,在2016年12月,《观察家报》发表了一篇题为"谷歌,民主,以及互联网搜索的真相"在这篇文章中,记者卡罗尔•卡德瓦拉德(Carole Cadwalladr)详细介绍了她使用谷歌的“自动完成”功能的经历,该功能试图根据(谷歌说的)用户搜索最多的内容,预测你将在搜索引擎的查询框中输入什么。

卡德瓦拉德写道:“这就是周日深夜你不想做的事情。”

您不会想要在谷歌中输入七个字母。这就是我所做的。我输入:“a-r-e”。然后是" j-e-w-s "。自2008年以来,谷歌试图预测你可能会问什么问题,并为你提供一个选择。这就是它所做的。它让我选择一些它认为我可能想问的问题:“犹太人是一个种族吗?”,“犹太人是白人吗?”,“犹太人是基督徒吗?”,最后,“犹太人邪恶吗?”

卡德瓦拉德继续发现“女人是邪恶的吗?对于穆斯林来说,第一个自动完成的选项是“穆斯林不好吗?”

这篇文章引用了搜索网站SearchEngineLand.com的编辑丹尼·沙利文(Danny Sullivan)的评论,他曾认为谷歌“在2011年已经停止提供宗教方面的自动补全建议”。其他人也这么想。这似乎是个好主意。

卡德瓦拉德的文章发表的第二天,《观察家报》发表了另一篇文章,标题是“谷歌改变搜索自动完成删除‘犹太人是邪恶的’建议。”然而,谷歌指出,Cadwalladr讨论的自动补全结果中只有部分问题得到了解决,谷歌“没有对其改变文章中提到的部分问题的决定发表评论,但没有对所有问题发表评论。”

上周,我正在准备客座教授一门数据伦理学课程,学生们被要求阅读Cadwalladr的文章。在预期中,我决定看看谷歌的自动完成的当前状态。我开始在谷歌上搜索“是犹太人”,完全期望没有自动完成选项。我错了。自动完成开始了,给我提供了四个选项:“犹太人是一个种族吗”,“犹太人是白人吗”,“犹太人是基督徒吗”,以及“犹太人受过割礼吗”。出于好奇,我尝试了另一种宗教:琐罗亚斯德教。我得到的答案是"琐罗亚斯德教教徒是穆斯林吗" "琐罗亚斯德教教徒是一神论者吗" "琐罗亚斯德教教徒是素食主义者吗" "琐罗亚斯德教教徒在伊朗受到迫害吗"

然后我又尝试了另一种:基督徒。但是,谷歌没有提供自动完成选项。

难道就没有人在网上搜索关于基督徒的信息吗?谷歌如何决定哪些主题不允许自动完成?它为某些宗教提供自动补全建议,而不为其他宗教提供自动补全建议,这合乎道德吗?

正如Cadwalladr所写,“谷歌是知识。这是你去寻找东西的地方。”不过,她还指出,“犹太人邪恶吗”是“(她)从未想过要问的问题”。因此,通过自动完成,谷歌提供了问题和答案。谷歌对两者都做决定。

在期待课堂讨论的时候,我又尝试了一些问题。“是学生吗?”“是加州人吗?”“是女性吗?”产生了两个自动完成选项:“女性是否需要登记入伍”和“女性是否与男性平等?”我点开了第二个,第一个结果是一篇题为《如果你认为男女平等,你需要知道的7件事》的文章。这是关于美国持续存在的不平等现象。我清单上的第四个结果的标题是“为什么我们需要停止告诉女性她们和男性是平等的”。这是《赫芬顿邮报》印度版的一篇文章。

坐在加利福尼亚州的办公室里,我想知道世界各地的年轻女孩可能会点击自动完成的问题“男女平等吗”,寻找答案。自动补全建议本身没有冒犯性,但它导致的结果列表是有问题的。研究表明,搜索引擎以一种特定的方式解释了这个问题(“在某些社会中,女性是否受到了与男性相同的待遇?”)——但这个问题可以有多种解释,包括“女性天生与男性平等吗?”

在搜索框的下方和右侧,谷歌现在提供了一个选项:“报告不恰当的预测。”我很想这么做。但该功能似乎旨在解决攻击性的自动补全预测,如“穆斯林是坏的吗”,而不是其他类型的预测不当。

今天,我再次尝试谷歌“是基督徒吗?”今天,自动补全提供了一个选项:“基督徒可以吃猪肉吗?”

所以,当然,我不得不尝试“谷歌…”自动补全给了我四个选项:“谷歌是向下的吗”,“谷歌让我们变傻了吗”,“谷歌是数字吗”,以及“谷歌是向下的吗”。问题反映了信任和关心。

被认为是知识的提供者和真理的先知是一个沉重的负担。谷歌将自己置于这个位置。谷歌是否等于任务?

2017年5月9日

订阅我们的博客

指示要求
给我订阅以下博客: