跳到主要内容
马库拉应用伦理学中心

从Tay与社交媒体的接触中学习

截图来自Twitter社交平台的Twitter账户TayandYou/Tay Tweets。

截图来自Twitter社交平台的Twitter账户TayandYou/Tay Tweets。

伦理学案例研究

Irina Raicu

2016年,微软发表了一篇题为“学习Tay的介绍在这篇文章中,微软医疗保健部门的副总裁详细介绍了一个名为Tay的聊天机器人的开发过程,并解释说,它的开发人员将其部署在Twitter上,因为他们“希望邀请更广泛的人群参与”,“通过增加互动……我们希望了解更多,让人工智能变得越来越好。”

不幸的是,Tay病情恶化得很快。一些推特用户通过互动故意错误地训练聊天机器人。这篇博文为Tay最终发布的“无意中的冒犯和伤害性推文”道歉;它补充说,该团队已经让Tay下线,“只有当我们有信心能够更好地预测与我们的原则和价值观冲突的恶意意图时”,才会让它恢复运行。

一些推特用户毁了Tay的“性格”——但社交媒体的可见性也影响了人类用户的性格。我们能从Tay的经历中学到什么,不仅是关于人工智能(以及人工智能和被激励的人类之间的互动),而且还有更广泛的社交媒体道德?

讨论问题:

  1. 不同的社交媒体平台,具有不同的可见性,是否需要不同的分析,或者是否存在共同的伦理问题,以便讨论“社交媒体伦理”是有意义的?
  2. 社交媒体平台促使用户养成了哪些习惯?这些习惯支持哪些美德?什么恶习?
  3. 在社交媒体互动的背景下,哪些道德价值观之间存在潜在的冲突?
  4. 我们能否设想一个会导致Tay部署不同结果的社交媒体生态系统?一个旨在鼓励用户的良性行为的社交媒体平台?这样的平台一定是家长式的吗?或者这只是社交媒体设计中已经存在的家长式作风的另一面?这样的平台可能具有哪些功能?
2022年7月18日