本文转自:科技日报过去10年间|在做选择这方面 人类直觉竟不敌数据和算法?( 二 )


如今 , AI已经开始进入我们的生活 , 科学家也会利用AI从事科研活动 。 AI会利用大量的数据 , 再通过一定的算法 , 验证过去学者们依靠观察、访谈等传统社会科学方法所得到的有关人类社会的认识理论 , 但有时却也会给出一些令人“大跌眼镜”的观点 , 貌似违反了过去我们对于人类社会的认知常识 。
在北京师范大学新闻传播学院、计算传播学研究中心教授吴晔看来 , 如果通过数据、算法得出的结果违反直觉或者常识 , 这不仅是常见的 , 而且是应该的 。 “直觉、常识本身就不一定是正确的 , 如果靠数据、算法得出的结论全都是符合直觉、常识的 , 那么这个数据、算法还有什么价值呢?大数据很大的一个优点就是帮助我们寻找出一些靠人类直觉无法得到的结论 。 ”
但随着数据的种类、数量越来越多 , 人们不禁要问 , 是否所有数据都有价值?吴晔认为 , 如果想要依靠数据和算法对人类社会进行理解、解释 , 乃至帮助人们进行抉择 , 数据就必须要具备一定条件 。 首先是数据规模要足够大 , 即使无法做到全样本数据 , 也应尽量实现数据来源的随机性 , 选择的数据要有代表性;其次则是数据质量应尽量可靠 , 数据的准确性和完整性要有所保证;此外 , 如果有统一的数据接口标准 , 算法的复杂性也能够大大降低 。
如果上述要求能够得到满足 , 那么当我们利用AI进行决策时 , 将更有可能得到更加准确的结果 。 但吴晔也强调 , 人类社会高度复杂 , 并且时刻都在变化 。 相对固定的算法很难做到长久有效 。 “以互联网上运行的推荐算法为例 , 可能几小时就会迭代一次 。 ”他认为 , 算法的不断更新、修正 , 也是保证大数据应用能够取得可靠结果的重要因素 。
还需认清数据、算法的两面性
信息获取方式的变化毫无疑问是近年来数据和算法给大众带来的最大改变之一 。 因此 , 也不断有批评者对信息推荐算法导致“信息茧房”效应加剧的问题进行批判 。 吴晔认为 , “信息茧房”的产生并不能全让算法“背锅” 。 有研究表明 , “信息茧房”是算法和受众认知偏好共同作用下的结果 , 两者缺一不可 。
吴晔进一步表示 , 算法归根结底是受人控制的 , 算法的规则是人制定的 。 “人完全可以写出一个‘走向另外一个极端’的算法 , 让大家的选择多样化 , 远离‘信息茧房’ , 但是这种算法不符合商业利益 , 所以没有人去做 。 ”他说 。
所以 , 人与大数据、算法之间不存在固有矛盾 。 “大数据的应用是为了提高人类某些行为的效率 , 是为人类服务的 , 总体上是需要拥抱的 。 ”吴晔说 。 但他同时也提醒道 , 如果大数据被别有用心的人利用 , 当然也会产生负面效果 。 “数据和算法就像菜刀 , 它既可以是工具 , 也可能会成为凶器 。 但我们不能因噎废食 , 就因为它可能会成为凶器就再也不生产菜刀了 。 ”
那么 , 我们应如何合理、恰当地应用大数据 , 使其更好地为人类服务?吴晔认为 , 应努力推动数据共享 , 使数据成为储存在个人设备里的私有财产 , 而非互联网平台的财产 , 并在有偿的前提下实现数据共享;此外 , 则是要避免数据被别有用心的人用于不利于社会发展的用途 , 比如大数据杀熟、大数据售假等 , 而这则需要有关部门提高监管水平 , 营造一个良好的互联网环境 。
相关链接
数据、算法正在悄悄改变你我
当我们越来越多地依赖数据和算法为我们做出决定时 , 我们也很有可能在不知不觉中被数据和算法改变 。