错把黑人视频打上“灵长类动物”标签,Facebook的AI太离谱!官方已向公众致歉

新闻 2021-09-06 明敏
436

AI再惹种族歧视争议

明敏 发自 凹非寺

非常AI 报道 | 公众号 QbitAI

观看一个以黑人为主角的视频,结果平台给出的相关推荐是:

是否继续观看有关灵长类动物的视频?

这是最近一些Facebook用户在观看一则黑人视频时,遇到的真实情况。

视频的内容其实是几个平民和警察发生争执,和“猴子或灵长类动物”毫无关系。

这在网上引起了轩然大波。

对此Facebook紧急致歉,称其是“不能容忍的错误”。

目前,他们正在研究这一推荐功能以“防止这种情况再次发生”。

“我们的AI并不完美”

这件事情起源于《每日邮报》2020年6月27日发布的一个视频。

视频中有白人、黑人和警察,他们之间发生了一些争执,视频的主要人物是黑人

最近,有Facebook用户观看这则视频时发现,平台给出的推荐提示居然是:

是否继续观看有关灵长类动物的视频?

这让人感到有些错愕。

按照生物学定义划分,人类的确属于灵长目。

但结合一些社会情况,不少种族主义者将黑人贬低为“猴子”、“猩猩”,意图刻意将他们与“人”区分开。

这样的社会背景,让人不免猜测Facebook给这段视频打上“灵长类动物”标签到底是怎么一回事。

于是有人把这个视频的情况告诉了前Facebook内容设计经理Darci Groves ,看到这个情况后,Groves感到非常的震惊。

随即,她把这一情况发到了一个面向Facebook员工的产品反馈论坛中。

之后,这事引起了Facebook官方的注意。

Facebook Watch产品经理表示,这种情况是不能被容忍的,公司已经在调查问题的根本原因。

Facebook发言人Dani Lever则在一份声明中表示,:

虽然我们在不断提升AI的水平,但是我们知道它并不完美,还有更多可以优化的地方。

我们向所有看到这则冒犯性推荐的人道歉。

AI种族歧视,不是第一次了

Facebook这次的“错误标签”,再一次把AI推上了舆论的风口浪尖。

这几年,不少科技巨头的AI都出现了存在种族偏见的负面新闻。

2015年,谷歌相册就曾把黑人照片打上黑猩猩的标签引起不少争议。

当时,谷歌对此“深表歉意”。

不过在2018年,《连线》杂志发现,谷歌并没有真的改正错误,只是……为图像分类算法去掉了“大猩猩gorilla”这个类别。

去年被CVPR 2020收录的PLUSE方法,也被人发现存在明显的种族偏见。

它是一个可以把打码的人脸修复如初的AI,结果还原的人脸,全部是白人脸

比如奥巴马这张复原图,可以说和他本人是毫无关系。

对亚洲脸庞的复原效果也非常不好。

类似的例子在AI算法中,真的不少见。

由此,AI的伦理问题也一直备受人们关注。

在把人和大猩猩弄混这事上,人类不会犯这种低级错误。为什么AI会呢?

有人认为这是一个复杂的计算机视觉问题。

找出图像之间相似是很容易的,但是找出为什么相似却不相关,这是个很难的问题。

也有人就指出这是因为AI做的工作更多是统计推理,它本身不会思考。

所以,就要关注训练集

有人就表示,他曾与一家大公司合作时发现,不少AI训练集中都存在偏见。

但是对于这一现象,不少团队都没有想消除歧视的想法。

此外,也存在训练集中包含黑人面孔太少的可能,这导致算法在识别黑人面孔时会表现不好。

当然也不排除程序员本身存在种族偏见,所以在打标签时就已经存在偏见。

相关文章