人工智能|人脸识别技术被套上“枷锁”?技术还需等一等制度

【 人工智能|人脸识别技术被套上“枷锁”?技术还需等一等制度】文/东方亦落
以后在公共场合不能随意使用人脸识别技术了?近日,欧盟以377:248的投票结果通过了一项决议——禁止警方在公共场所使用面部识别技术,并对其使用人工智能进行预测性警务活动实施严格的限制措施。

人工智能|人脸识别技术被套上“枷锁”?技术还需等一等制度
文章插图

无独有偶,中国也采取了一系列相关措施。去年10月,备受瞩目的《个人信息保护法(草案)》在中国人大网公布,向社会征求意见。主题是对于在公共场所中的图像采集、个人身份识别设备做出规定:例如所收集的个人图像、个人身份特征信息只能用于维护公共安全的目的,不得公开或者向他人提供等。
看起来大热的人脸识别技术正在被套上越来越重的“枷锁”。但此前人们对人脸识别技术还持有一种积极的、完全开放的态度,为何现在却是如此对待呢?
从技术层面来看,人脸识别技术在欧洲对LGBT人士、少数民族、妇女、老年人都进行过错误的辨认,这就造成了该技术经常产生歧视的结果。很多人并不希望自己的个人信息被泄露,他们会担心隐私保护措施不到位、数据被随意篡改,由此产生失控的后果,甚至还有人担心人工智能有一天掌握了充足的人类信息之后会统治世界。

人工智能|人脸识别技术被套上“枷锁”?技术还需等一等制度
文章插图

除了政府之外,巨头也采取了相关措施。例如2020年2月,德国工业巨头博世发表了《AI道德准则》,提出将人工智能限制在安全、可靠、可解释的范围之内,认为人类应始终保留对人工智能的控制权。
普华永道的一份报告显示,自2018年以来,欧洲各种组织共发表了44份报告,对“人工智能伦理”提出了建议,看起来欧洲已经下定决心要把人工智能关进“牢笼中”。
而在中国,人脸识别技术在公共场所的应用过程中也没少“惹祸”:某房地产商在售楼中心使用人脸识别技术对顾客进行分析,以便更精准地卖房;杭州野生动物世界要求年卡用户刷脸入园,因此被告上法庭,成为“中国人脸识别第一案”;某些小区为方便管理,强制居民使用人脸识别门禁等。

人工智能|人脸识别技术被套上“枷锁”?技术还需等一等制度
文章插图

其实人们对人脸识别的担忧,主要来源于其技术普及程度过快,但实际上并不成熟,以及政策与法律的滞后所产生的风险。没有足够的约束,没有明确的界定,导致信息透明度不足,公众就无法知悉自己的数据究竟归属谁手、会被用于何处,这在当今这个隐私本就难保的世界必然会引发更大的担忧。
总的来看,人脸识别技术虽好,但没有限制狂奔,不论对技术今后的发展还是人们的隐私安全都是弊大于利的。就像欧盟委员会所说的,人工智能发展迅猛,但也要应对一系列潜在的风险。“技术必须遵从人民的权利”,因此现阶段只能给它套上“枷锁”,用这种强制性的手段让人脸识别技术等一等政策和法规,这也是为了该技术以后更广阔的前景以及人类的安全着想。