人工智能|HICOOL专访|张宏江:AI技术发展需要建立隐私保护共识
文章插图
9月11日,HICOOL2021全球创业者峰会在京举办,会后北京智源人工智能研究院理事长张宏江接受了新京报的专访,就目前人工智能的现状和发展分享了自己的看法。
智源人工智能研究院是在科技部和北京市委市政府指导和支持下的新型研究机构。张宏江表示,建立智源研究院的初衷就是保持和发展北京市在人工智能科研和创新方面的领军地位,建立不到三年取得的成绩还算令人满意。
近年来,人工智能发展迅速,但在隐私、数据安全、算法推荐等方面仍存在一些技术悲观论。对此,张宏江表示,技术带来的算法推荐、偏见等隐忧是可控的,数据安全和隐私保护也是未来技术发展的基本原则,解决这类问题需要建立一个共识,“这种共识就是,我们一定要保护个人的隐私,这并不意味着我们人工智能不能用个人的数据,而是一定要在当事人知情的情况下,用完后一定不要侵犯这个人的隐私,这都是基本的原则。”
而对于企业的数据安全,他期待未来能够把这种共识变成企业的规则,嵌入到企业的服务设计中,除此之外更重要的是法律方面的完善,“不可能有任何一个机构能够控制所有企业的行为或者个人的行为,最后控制个人和企业行为的一定是法律,而不是行政手段。”
提到AI偏见,张宏江认为这不是个负面词汇,“AI偏见是基于数据的偏见,未来通过数据的不断补充,这方面的问题也可以解决。”
关于人工智能的未来,在张宏江看来,还有很大的增长空间,大模型时代的到来将为人工智能领域带来非常大的变化。
所有事情都要在保护和发展中达成一种共识
新京报:前不久,网信办出台了规定,严管企业的算法推荐,你怎么看待这件事?算法推荐算是人工智能带来的负面影响吗?
张宏江:推荐算法本身是人工智能的一个非常好、非常有效的应用,有问题的是算法背后的人,推荐什么一定是由设计算法的团队来确定的,那么它是基于用户习惯来推荐还是针对某个法律要求来推荐,其实是可控的。
比如在购物平台购买推荐、天气预报推荐就是比较好的应用,这个算法一定是有用处的,而且大大地帮人提高效率,只是说把它用在什么地方,这是人可以控制的。
新京报:随着AI技术的发展,出现了很多代替人的技术,比如无人驾驶、智能家居包括和我们相关的AI采访,未来人工智能和人类的关系是怎样的?
张宏江:我们为新华社做了一个AI采访人员,AI永远是人的工具,目前我们还看不到AI有意识的那一天。
新京报:人工智能被越来越多地运用于决策制定,比如面试评估、风险评估、信贷预测等,人们普遍认为没有意识、情感的AI会做出更公平中立的决策,但最近有研究显示存在AI偏见,你怎么看?
张宏江:AI偏见是目前做AI的服务和产品工程领域的人都在花时间留意的,“偏见”这个词在英文里面是bias,这是一个中性词,不是负面的词,偏见是长大过程中形成的概念。如果你把一个孩子放在可控的环境里面长大,他就只知道的环境里面他被教育的事情,比如你从来没有看过黑人,你看黑人会问出一些“他是不是人”这种非常蠢的问题,比如你就在北京长大,从来没有听别人说过外地的方言,你认为这个世界说的话就应该是普通话,那你听到方言的时候,就会觉得很奇怪,这也是一种偏见。
所以,偏见这件事情跟你有没有接触过,你的形成过程,你的知识是否完备有关。人工智能的偏见很大程度上是因为人工智能的训练本身靠数据来做,有些数据没有,有些数据太强都可能形成偏见。
- CPU|元宇宙+高端制造+人工智能!公司已投高科技超100亿,股价仅3元
- 图灵奖|中国科技团队创历史,360打破行业垄断,登顶世界最强人工智能榜
- 图灵奖|“世界最强”人工智能榜单,“中国代表队”力压群雄登顶榜首
- 技术|C端不买单,B端买单难,元宇宙真能帮助人工智能技术学会赚钱?
- 大数据|人工智能步入千家万户,智能机器人的前景怎么样?
- 机器人|人工智能越来越发达,人类一身“毛病”,会被机器人取代吗?
- 产品经理|人工智能越来越发达,人类一身“毛病”,会被机器人取代吗?
- 人工智能|“慢”生意驶入快车道,鹰瞳科技成为医疗AI第一股
- 芯片|人工智能国际大赛上,国内团队问鼎冠军,打败欧美竞争者!
- “世界最强”人工智能榜单,“中国代表队”力压群雄登顶榜首