自我掌控感|防止算法推荐成为窥私“木马”

只要“网络一线牵” , “算法”就能运用信息数据为用户“悬丝诊脉” 。 大数据算法精准智能的“私人定制” , 在提供高效率数字服务的同时 , 也让人产生信息安全的隐忧 。 近日发布的《中国大安全感知报告(2021)》显示 , 网络个人隐私是民众当下最为关注的安全问题 , 有七成受访者感到自己被算法“算计” , 近五成受访者在算法束缚下想要远离手机 。
大众所言的“网络安全感”与其“自我掌控感”相关 , 在算法“无处不在”的当下 , 刚和朋友说了想吃什么 , 之后打开外卖软件就发现相应商家信息;出于好奇点进一条新闻 , 软件就一直推送类似消息;人走到哪里 , 点评软件就能替自己把周围的吃喝玩乐先摸个遍……有网友吐槽说 , 一些App算法已经延伸到“通讯录、相册 , 甚至偷偷录音、拍照 , 上过的网站 , 搜索记录 , 人际关系、家庭关系” 。
许多用户为求便捷 , 也只能“任由”算法挖掘个人信息——即使具备网络安全意识、察觉到自己被“算计” , 也缺乏重获“自我掌控感”的渠道和手段 。 软件算法如此“贴心” , 却让人不够“放心” 。
“整个人会感到一种巨大的羞耻和空虚 。 ”据媒体报道 , 有用户表示 , 当自己发现短视频软件不停“投喂”大量纯消遣娱乐信息时 , 他的确被吸引、忍不住“一刷就是几小时” , 但内心一股“耻感”也一直纠缠着他 , 让他认清自己正在“快餐式”娱乐中消磨时光 。 这个角度上讲 , 让用户感到失去“自我掌控感”的不只是个人信息安全 , 还有那些本能够被适当克制的欲望和想法 。
“定制就容易产生滥用” , 算法滥用的后果往小了说会损害个人权益 , 往大了讲则可能危害国家安全 。 有学者提出 , 网络安全、数字安全是托起数字文明的底层逻辑 。 数字时代也必须“以人为本” , 算法推荐服务提供者只有坚守“道德准线” , 才能为用户信息安全“兜底”;技术应当为用户提供恰当帮助 , 而不是纵容甚至诱导用户逐渐走向沉迷 。 如若“道德准线”不存 , 用户必然流失 , 数字技术也就如沙上建塔 。
目前 , 网络安全作为一大新型安全领域已经越发引起社会广泛关注 , 相应的法律监管政策也在持续完善 。 同时需要认识到 , 在数据算法的“技术前线”持续“超速”向前推进时 , 网络安全领域法律政策的出台的确存在一定滞后 , 亟待完善补足 。 去年施行的个人信息保护法、明确指出 , “自然人的个人信息受法律保护 , 任何组织、个人不得侵害自然人的个人信息权益” , 为身处网络空间的社会大众立下一面盾牌 。 而今年3月1日起新施行的《互联网信息服务算法推荐管理规定》 , 则让用户把握住算法推荐技术的“剑柄” , 让公众更有网络时代的“自我掌控感” 。
【自我掌控感|防止算法推荐成为窥私“木马”】算法推荐能为社会大众提供便捷 , 是大数据时代的一种技术馈赠 , 而绝不能使之成为肆意窥探个人隐私的“特洛伊木马” 。 只有社会各方时刻遵守现有的“法律红线”、坚守内心的“道德准线” , 我们才能在数字时代的“技术前线”不断寻求发展与突破 。
陈之琪