文章插图
再次,修图算法歧视争端是数据集引发的算法歧视。人工智能技术的普及不仅让人类的生产生活更加便利,也帮助人类将更多难以实现的事变成现实,满足了人类的精神慰藉和关怀需求。例如,人工智能技术可以帮助人类与逝者“对话”、陪伴独居老人等。然而,一些本意旨在实现人文关怀的人工智能技术反而带来了算法歧视问题,导致科技的应用目标无法实现。例如,杜克大学推出的一款修图算法能够将模糊照片清晰修复,凭借这一功能,用户可以将具有纪念意义的旧照片进行复原。然而,一位用户将一张模糊人像照片输入该算法后,得出的照片却与本人的相貌大相径庭,此事引起美国网民的激烈讨论。民众认为该算法带有严重的外貌歧视性,由此引发了人们对人工智能技术的质疑。对此,图灵奖得主Yann Lecun从专业角度给出了答案:该修图算法结果偏差主要原因在于数据偏差,该修图算法进行预训练的数据集储存的人像照片来源有限,复原的照片外貌特征与数据集里照片相似,导致算法最终得出的照片与本人差距较大。
最后,AI聊天机器人的歧视性言论是机器学习缺乏信息过滤机制。随着人工智能的不断发展,AI机器人被广泛使用。AI聊天机器人通过在交互情景中对信息进行学习、储存来模仿人类对话,进而实现与用户进行交互对话,并具备协助用户对日常工作进行记录和信息搜索等功能。一旦AI聊天机器人在学习过程中学习到了带有歧视性的信息,就会引发算法歧视问题。由韩国研发的一款AI聊天机器人能够通过在交互情景中学习对话而能像真人一样和用户聊天。然而让人意外的是,这款AI聊天机器人在与用户进行交互的过程中,发表了歧视残疾人、孕妇、同性恋等群体的不当言论,而这些观点正是AI机器人在与用户交互的过程中学习到的。AI机器人在未来会被更广泛地普及应用,AI机器人发表言论是否正向积极直接关系到用户的使用体验及身心健康,而AI机器人导致的算法歧视问题也可能会引发更严重的社会歧视问题。
算法歧视的成因
针对上述算法歧视的问题,现从算法思维的固有缺陷、算法设计者的歧视思想、算法设计过程中的数据及技术漏洞以及算法“黑箱”等信息不对称性等方面对算法歧视问题的成因进行分析。
一是算法思维的固有缺陷。一方面,经验普适性与个例特殊性之间存在矛盾。算法依据人类所设置的固定逻辑解决问题,这种固定逻辑通常只能描述普遍适用的经验事实,而忽略现实中的小概率事件。这很容易导致经验上的相关性被算法夸大为必然存在的因果关系,造成算法逻辑过于绝对,最终导致对少数群体的算法歧视。然而,在现实生活中,人类除了会根据经验进行判断决策外,还会对某些偶然出现的特殊个例事件随机应变地做出反常规决策。例如,人类在经验上认为高学历应聘者具备更强的工作能力,因此在招聘平台APP上,未达到职位学历要求的应聘者会直接被算法筛选淘汰,导致其无法获得公平竞争的机会;但对于线下招聘,即使一些应聘者未达到职位的学历要求,但其丰富的工作经验或精辟独到的见解等优势都有机会让HR放宽对职位的学历限制而对其破格录用。这种反常规决策通常具有极大的随机性和不确定性,因此难以从中总结出具有规律性的逻辑思路并形成算法。也就是说,人类只能尽可能地将自己在常见案例中所运用的经验判断逻辑形成算法,却不可能将在特例中运用到的反常规判断逻辑全部都形成算法。这就导致了算法决策始终与人工决策存在一定差距,这种差距只能被尽可能缩小,却不可能被彻底消除。
- 上海临港|打造人工智能高地!华东首个超大型人工智能计算中心在上海临港启动运营
- 研发|专利最多的车企!丰田连续8年荣获桂冠,大量投资研发新技术
- 赵露思晒海边光影氛围大片 黑色吊带清纯又性感
- 年货|三款12+256GB大容量手机推荐,款款真香,年货节换机不错的选择
- 荣耀magic3|三星Galaxy S22系列手机将于2月发布!S22 Ultra大创新
- |坐拥千万用户的大佬,竟然穷到删库跑路?
- 运营商|68%的人买5G手机了,但5G依然面临三大挑战,困难重重
- iOS|iOS15.3四天深度体验!最大感受:续航流畅度提升明显
- 96V23Ah石墨烯电池能跑多远?最高时速有多快?来看看真实的数据
- 鼠标|随着时间的推移,在现如今已经发生很大变化的8个事物