另一方面,算法简化及归类思想与对象异质性存在冲突。为了尽量精简快捷地运用算法解决问题,算法设计者通常会先将对象进行分类简化,进而对不同类别的群体针对性赋予程序指令。在群体分类及定义的过程中,个体依据共性特征被分类,而异质性特征却被忽略。当算法对象是人时,人既具有一定的共性,使其能够归纳分类为群体,也具有复杂性、多元性,每个个体在各方面的特征都不尽相同。例如,电商平台在进行产品推送时,可能会对女性用户一味地推送裙子、高跟鞋等商品,这些在传统意义上为女性消费者量身定做的商品并不一定符合全部女性的购物偏好。因此,群体的差异性程序指令可能会使群体在共性上得到公平对待,却在特性上受到歧视。这一现象由算法的归类简化思想导致,特别是在大数据科学中应用更为普遍。当个体数量庞大时,个体异质性无法被充分考虑,这是导致少数个体被算法歧视的原因之一。
二是算法设计者存在主观歧视思想。一方面设计者主观认知偏见。当今社会中,偏见思想仍然普遍存在。算法是人类思想的体现,如果算法设计者主观上具有偏见思想并将主观意愿及隐含偏见写进算法中,就必然会造成算法歧视问题。不仅如此,随着大数据科学的普及和应用,算法设计者能够更加轻易地获取到用户的私人信息,这造成歧视行为更加变本加厉。金融借贷平台的借贷歧视等算法歧视现象实际上就是社会歧视性思想的体现,归根结底是由观念认知偏差所引起的,而不是信息科技发展所带来的不良后果。事实上,算法是人类为提高生产生活的便捷程度而创造和设计的工具,它固然是一把双刃剑,但企业和算法设计者以中立的态度合理地利用算法可以使其更好地发挥正向效用。另一方面设计者逐利思想驱使。除了主观认知偏见之外,逐利思想也是造成算法歧视的主要原因,其中大数据“杀熟”就是逐利思想驱使导致算法歧视的典型表现。算法设计者为了获取更高的利益,通过提供更优越的条件吸引潜在价值更高的用户,这无疑使其他用户遭受不公平待遇。相比于主观认知偏见,逐利思想下被算法歧视的群体更容易通过消费等行为突破歧视壁垒,这也正是算法设计者设计歧视性算法的主要目的之一。也就是说,算法设计者通过有意为之的歧视,达到吸引用户关注、刺激用户消费等目的,进而为自身创造更大的经济利益。事实上这也是人类思想主导下的算法歧视,而不是算法发展的必然后果。
三是算法设计过程中存在数据及技术漏洞。首先是算法选取样本分布不均。除了设计过程中导致算法歧视问题外,数据集也是导致算法歧视问题的主要原因之一。与修图算法的歧视争端类似,在数据采样过程中若数据来源集中于部分群体,而忽略其他群体,那么算法仅能捕捉到被采样群体的特征,其输出的信息也仅适用于被采样群体,而那些未被采样的群体就有可能成为被歧视的对象。因此,即便算法具有公正的设计思想,若所选取的数据样本分布不均,也会导致严重的算法歧视问题。其次是机器学习过滤标准过松。具有学习功能的算法除了能够体现算法设计者的思想外,还融合了用户的思想。机器学习算法会在与用户交互的过程中学习用户行为,这些学习到的用户行为信息可能会被储存并应用于类似的交互情景中。尽管机器学习算法的设计初衷是通过对信息和数据的学习,提高输出信息及数据的精准度。特殊地,对于AI机器人等交互式机器学习算法,算法通过学习人类行为信息来扩充信息库,进而提高AI机器人对人类的模仿能力。然而,目前带有学习功能的算法通常缺乏严格的信息甄别和过滤功能,带有歧视性的信息不能提前被识别过滤而被一并提供给算法进行学习,算法一旦在这一过程中学习并储存了具有歧视性的信息,就极大可能会在其他交互情景中输出带有歧视性的信息,进而导致更严重的算法歧视问题。
- 上海临港|打造人工智能高地!华东首个超大型人工智能计算中心在上海临港启动运营
- 研发|专利最多的车企!丰田连续8年荣获桂冠,大量投资研发新技术
- 赵露思晒海边光影氛围大片 黑色吊带清纯又性感
- 年货|三款12+256GB大容量手机推荐,款款真香,年货节换机不错的选择
- 荣耀magic3|三星Galaxy S22系列手机将于2月发布!S22 Ultra大创新
- |坐拥千万用户的大佬,竟然穷到删库跑路?
- 运营商|68%的人买5G手机了,但5G依然面临三大挑战,困难重重
- iOS|iOS15.3四天深度体验!最大感受:续航流畅度提升明显
- 96V23Ah石墨烯电池能跑多远?最高时速有多快?来看看真实的数据
- 鼠标|随着时间的推移,在现如今已经发生很大变化的8个事物