跳到主要内容
马库拉应用伦理学中心

道德与机器学习——一个教育实验

屏幕上的图像

屏幕上的图像

一次教育实验

Irina Raicu

Irina Raicu是圣克拉拉大学马库拉应用伦理学中心互联网伦理项目的主任。雷竞技最新app观点是她自己的。

在圣克拉拉大学利雷竞技最新app维商学院,Sanjiv Das教授教授信息系统硕士课程的研究生机器学习。2017年春季季度即将开始,Subramaniam (Subbu) Vincent(该中心的技术主管信托项目(一位在数据科学领域有经验的工程师兼记者)建议,他们两人可以合作,努力向学生介绍数据分析中的一些关键问题:在机器学习的背景下,公平和偏见是什么样子?如果在数据集或算法中检测到偏差,是否有方法将其最小化或纠正?

在他的实践技能培养课程中,达斯教授要求学生以小组为单位,在数据集上练习预测建模,并提出了公平性问题作为项目选项之一。有五个团体接受了他的提议。他们与几个数据库合作,其中包括刑事司法和贷款数据(其中一些数据库是公开的,可以免费获得;其他的仅用于教育目的)。Subbu和Sanjiv还向学生们介绍了Themis-ml: a“‘公平感知’机器学习界面,”正如其创建者尼尔斯·班蒂兰(Niels Bantilan)所描述的那样,“它旨在供个人数据科学家和工程师、学术研究团队或在生产系统中使用机器学习的大型产品团队使用。”

在这个季度结束时,所有小组都把他们的发现作为一个整体向全班展示。超过80名学生,包括那些没有选择专注于公平问题的项目的学生,听到了themi -ml -和其他分类模型应用于各种数据集的结果。他们从同行(而不是商业教授或伦理学家)那里听到的是,数据确实显示出了偏见的证据。这种特殊的机器学习界面在对抗这种偏见方面取得了不同程度的成功。

“道德”一词只在一次演讲中出现,甚至“公平”也花了一段时间才出现(尽管“歧视”出现了)。有趣的是,“一致性”一词似乎是“公平性”的代名词。在某些情况下,展示结果的学生指出,一致性轴的改善以预测准确性的适度代价为代价。然而,在其他情况下,消除偏差的努力实际上提高了模型的准确性。

(也许这个结果应该在预料之中:如果偏见是定义作为“偏向或反对某件事、某个人或某一群体的偏见,通常在某种程度上被认为是不公平的”,偏见就是定义作为“一种不基于理性或实际经验的先入之见”,消除偏见将导致更准确的预测是有道理的——比如,哪些被判有罪的人可能会再次犯罪,或者哪些借款人可能会拖欠贷款。)

我和我的同事布莱恩·格林(该中心技术伦理项目的主任)参加了演讲,并试图评估学生的反应。当他们听说偏见可能导致女性或西班牙裔美国人比白人男性更不可能获得小额贷款,或被判有罪的非洲裔美国人被认为(不准确地说)比处于类似情况的白人被告更有可能再次犯罪时,当使用反映社会偏见的数据集时,有一些方法可以限制偏见的影响,即使是那些没有选择带有明显“伦理角度”的项目的学生也密切关注了这一点。

在达斯教授的课堂上,几十名学生获得了一节应用伦理学的实践性、技能性课程——也许他们并没有意识到自己已经掌握了。他们了解到,数据库并不能准确地反映世界的现状,而是可能很好地编码偏见的信息子集。“基于数据”并不意味着“客观”。有数据科学家积极致力于解决这个问题。而且,有了这样的意识,数据科学专业人员可以真正地与不公平作斗争,而不是忽视它,使它永久存在,和/或用一层“数学”来掩盖它。

这是一次教育实验。如果您正在教授数据科学/机器学习课程,并决定在您的课程中重新创建它,或者如果您已经尝试了自己的实验,将伦理学问题引入到此类课程中,我们很乐意听到您的经验。鉴于机器学习越来越多地应用于有关我们个人生活和社会的各种决定,我们需要新的方法来确保机器学习专业知识与此类工作的道德影响有关。

有关这个实验的更多细节,请参见“数据科学专业的学生如何考虑道德问题?,作者:Subramaniam Vincent和Brian Green。

图片来自Sheila Scarborough,未经修改,使用在知识共享协议下许可证

2018年7月26日

订阅我们的博客

指示要求
给我订阅以下博客: