时间:2020-09-22 16:51:14来源:互联网
两者都放大和Twitter在本周末因各自的算法偏差问题而受到抨击。在Zoom上,这是视频会议服务的虚拟背景的问题,而在Twitter上,该网站的照片裁剪工具存在问题。
它始于博士学位。学生Colin Madland在推特上发布了有关黑人教职员工有关Zoom的问题的推文。根据Madland的说法,每当说教员使用虚拟背景时,Zoom就会移开他的头。
Zoom发言人告诉TechCrunch:“我们已直接与用户联系以调查此问题。”“我们致力于提供一个包罗万象的平台。”
但是,在Twitter上讨论该问题时,当Twitter的移动应用默认默认仅在预览中显示白人Madland的图像时,算法偏差的问题就变得更加复杂。
Twitter发言人在给TechCrunch的一份声明中说:“我们的团队在交付模型之前进行了偏见测试,没有在我们的测试中找到种族或性别偏见的证据。”“但是从这些示例可以明显看出,我们需要做更多的分析。我们将继续分享我们所学到的知识,我们将采取的行动,并将开源我们的分析结果,以便其他人可以查看和复制。”
Twitter指出了其首席设计官Dantley Davis的一条推文,他自己进行了一些实验。戴维斯(Davis)认为麦德兰(Madland)的面部毛发影响了结果,因此他删除了面部毛发,黑人教师出现在裁剪的预览中。戴维斯在随后的推文中说,他“和其他所有人一样对此感到恼火。但是,我可以修复它,我会的。”
Twitter还指出了卡耐基梅隆大学首席科学家Vinay Prabhu的独立分析。在他的实验中,他试图查看“种植偏差是否真实”。
针对该实验,Twitter首席技术官帕拉格·阿格劳瓦尔(Parag Agrawal)表示,解决种植偏见是否真实的问题是“一个非常重要的问题。简而言之,有时Twitter确实淘汰了黑人,有时却没有。但是,Twitter完全做到这一点(甚至一次)就足以使它成为问题。这也谈到了不良算法的普遍存在的更大问题。这些相同类型的算法导致对黑人的有偏见的逮捕和监禁。它们与Google的算法相同曾经将黑人的照片贴上大猩猩的标签,微软的Tay机器人曾经成为白人至上主义者。
声明:文章仅代表原作者观点,不代表本站立场;如有侵权、违规,可直接反馈本站,我们将会作修改或删除处理。
图文推荐
2021-11-01 12:09:53
2021-11-01 11:09:53
2021-11-01 10:09:53
2021-11-01 09:09:52
2021-11-01 08:09:53
2021-10-31 19:09:53
热点排行
精彩文章
2021-11-01 12:10:04
2021-11-01 11:10:09
2021-11-01 10:10:07
2021-11-01 09:10:06
2021-11-01 08:10:09
2021-10-31 19:10:05
热门推荐