ai 换 脸 twitter

一项对 10,000 张图像的研究发现,系统选择突出显示的内容存在偏差。Twitter 已停止在移动设备上使用它,并将考虑在网络上放弃它。

去年秋天,加拿大学生 Colin Madland 注意到Twitter的自动裁剪算法不断地从两人的照片中选择他的脸——而不是他皮肤较黑的同事的脸——以显示在推文中。这一集引发了对偏见的指责,因为大量 Twitter 用户发布了拉长的照片,以查看 AI 是否会选择白人的脸而不是黑人,或者它是否专注于女性的胸部而不是他们的脸。


当时,Twitter 的一位发言人表示,在 2018 年上线之前对该算法的评估没有发现种族或性别偏见的证据。现在,迄今为止对人工智能的最大分析发现了相反的结果:Twitter 的算法更偏爱白人而不是黑人。该评估还发现,用于预测照片中最有趣部分的人工智能并不关注女性的身体而不是女性的脸部。

Twitter和研究员Vinay Prabhu之前的测试涉及几百张或更少的图片。Twitter研究科学家周三发布的分析基于来自不同人口群体的10,000个图像对,以测试算法偏爱谁。

当算法显示来自两个人口群体的人的照片时,研究人员发现了偏见。最终,该算法会选择一个人脸将出现在 Twitter 时间线中,并且某些群体在平台上的表现比其他群体更好。当研究人员将黑人和白人女性的照片输入系统时,算法选择显示白人女性的概率为 64%,而黑人男性的概率仅为 36%,这是所有人口统计群体中包含的最大差距。分析。对于白人女性和白人男性的图像,该算法显示女性的概率为 62%。对于白人女性和黑人女性的图像,该算法显示白人女性的概率为 57%。

5 月 5 日,Twitter 取消了使用 Twitter 智能手机应用程序发布的单张照片的图像裁剪,自去年秋天算法争议爆发以来,Twitter 首席设计官 Dantley Davis 青睐这种方法。这一变化导致人们发布了高大的照片,并标志着“开放式惊喜”推文的结束。

Twitter.com 上仍在使用所谓的显着性算法,以及裁剪多图像推文和创建图像缩略图。Twitter 的一位发言人表示,过高或过宽的照片现在会被中心裁剪,该公司计划在 Twitter 网站上停止使用该算法。显着性算法是通过跟踪人们在看图像时所看的内容来训练的。

其他网站,包括 Facebook 和 Instagram,已经使用了基于 AI 的自动裁剪。Facebook没有回应置评请求。

不幸的是,计算机视觉系统中对性别和种族偏见的指控相当普遍。谷歌最近详细介绍了改进 Android 相机如何适用于深色皮肤的人的工作。上周,Algorithm Watch 小组发现,iPhone 上使用的图像标签 AI 将黑皮肤人的卡通描绘标记为“动物”。苹果发言人拒绝置评。

在新发布的研究中,Twitter 研究人员表示,他们没有发现证据表明照片裁剪算法更偏爱女性的身体而不是脸部。为了确定这一点,他们为算法提供了 100 张随机选择的女性图像,发现只有三个居中的身体位于面部上方。研究人员认为,这是由于人们胸前存在徽章或球衣号码。为了进行这项研究,研究人员使用了来自 WikiCeleb 数据集的照片;照片中人物的身份特征取自维基数据。

推特论文承认,通过将分析限制在黑人或白人或男性和女性的比较,它可以排除那些认定为非二元或混血的人。研究人员表示,他们曾希望使用创建的 Gender Shades 数据集来评估基于肤色的面部识别系统的性能,但出现了许可问题。

Twitter在预印本存储库 arXiv 上发布了这项研究。Twitter 的一位发言人表示,它已提交给将于 10 月举行的研究会议。

Twitter 研究科学家认为,分析中发现的种族偏见可能是由于 WikiCeleb 数据库中的许多图像具有深色背景,并且显着性算法被吸引到照片的较高对比度,这些照片显示浅色皮肤与深色背景的人. 他们还表明,浅色皮肤上的深色眼睛在有利于浅色皮肤人群的显着性算法中发挥了作用。

该论文的合著者来自 Twitter 上个月推出的 ML 道德、透明度和问责制 (META) 团队。算法审计初创公司 Parity 的创始人、科技公司和政府的前顾问 Rumman Chowdhury 领导着该团队。

在上个月的一篇博客文章中,Twitter 表示,它创建了这个团队来负责 Twitter 对算法的使用,为影响数亿人的 AI 的内部决策提供透明度,并让公司承担责任。关于 META 团队将如何运作的一些问题仍然存在,例如谁最终决定 Twitter 是否使用某些类型的人工智能。