黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用

机器之心报道
编辑:小舟
AI系统从来不是完美的 , 但偏见需极力纠正 。
近日 , 有Facebook用户在观看一段以黑人为主角的视频时收到推荐提示:询问他们是否愿意「继续观看有关灵长类动物的视频」 。 该视频是由《每日邮报》在2020年6月27日发布的 , 其中包含黑人与白人平民和警察发生争执的片段 , 并且视频内容与灵长类动物无关 。 目前 , Facebook已禁用该人工智能推荐功能 。
据《纽约时报》报道 , Facebook已在上周五为其「不可接受的错误」道歉 , 并表示正在调查其推荐功能 , 防止这种情况再次发生 。
针对此事 , 前Facebook内容设计经理DarciGroves在推特上发出该推荐提示截图 , 并表示这令人无法接受 。 Groves还将其发布到一个面向Facebook现任和前任员工的产品反馈论坛 。 作为回应 , Facebook视频平台FacebookWatch的产品经理称其「不可接受」 , 并表示该公司正在「调查根本原因」 。
黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用
文章图片
Facebook拥有世界上最大的用户上传图像存储库之一 , 用于训练其面部和对象识别算法 。 Facebook发言人DaniLever在一份声明中表示:「尽管我们对人工智能进行了改进 , 但我们知道它并不完美 , 我们还有很多改进要做 。 我们向任何可能看到这些冒犯性推荐信息的人道歉 。 」
黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用】毫无疑问 , 此次推荐信息的错误折射出的是AI系统存在的偏见 。
偏见问题 , 不是个例
多年来 , 谷歌、亚马逊等多家科技公司都曾因其人工智能系统中存在的偏见 , 尤其是种族问题而受到审查 。 有研究表明面部识别技术因存在种族偏见导致识别困难 , 甚至曾有报道称黑人因AI存在的问题而受到歧视或被捕 。
2015年 , GooglePhotos将两位黑人的照片标记为「大猩猩(Gorillas)」 , 谷歌当即深表歉意 , 并表示将立即解决问题 。 然而两年后 , 《Wired》杂志发现谷歌的解决方案仅仅是防止将任何图片标记为大猩猩、黑猩猩或猴子 。 随后谷歌证实 , 无法识别大猩猩和猴子是因为2015年将黑人识别为大猩猩事件发生后 , 为了解决这一错误 , 谷歌直接从搜索结果中删除了这一词条的标签 。
黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用
文章图片
图源:https://www.reddit.com/r/MachineLearning/comments/3brpre/with_results_this_good_its_no_wonder_why_google/
被证实「只是删除标签」后谷歌表示:「图像标签技术的发展仍处于早期阶段 , 不幸的是这项技术离完美还差得很远 。 」
在OpenAI一篇名为《LearningTransferableVisualModelsFromNaturalLanguageSupervision》的研究论文中 , 研究者发现一些AI系统会将4.9%(置信区间为4.6%-5.4%)的图像错误地分类为非人类类别之一 , 包括「动物」、「黑猩猩」等.其中 , 「黑人」图像的误分类率最高 , 约为14% , 而所有其他种族的误分类率均低于8% 。
黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用
文章图片
论文地址:https://cdn.openai.com/papers/Learning_Transferable_Visual_Models_From_Natural_Language.pdf
实际上 , AI领域的偏见问题并不是个例 。 2020年年底谷歌开除「伦理AI团队」技术联合负责人TimnitGebru的事件引发了一场讨论风暴 。 就在昨日 , DarciGroves还在推特上发声支持TimnitGebru及其研究工作 。
黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用
文章图片
偏见事件的陆续发生让人们开始思考问题的根源 , 越来越多的研究者为了解决AI系统的偏见问题做出了努力 。 例如 , MIT的研究者曾经开发一种可调的算法来减少训练数据中隐藏的潜在偏见 , 并用该算法来解决面部检测系统中的种族和性别偏见问题 。 此外 , 机器学习作为一种数据驱动系统 , 数据及其标注的质量和公平性可能还有很长的路要走 。