小冰CEO|AI改变爱情与亲密关系?小冰CEO李笛:人对情感非常清楚,应有信心( 六 )


澎湃新闻:据我所知,AI在商业化的过程中困难重重,很多AI企业都面临盈利困境,但另一方面,在很多巨头企业中,AI与大数据的结合却进一步巩固了巨头的垄断地位,为巨头企业增收盈利。AI与产业未来的结合模式会是什么样?AI技术会不会进一步加剧社会不平等?
李笛:当年微软在硅谷的名声并不好,因为微软是个封闭系统,于是自然就会有Linux,就会有开源社区蓬勃的发展,直到现在微软也拥抱开源。
AI也是一样,也存在着大企业的集群,因为AI实在是很贵的领域,尤其是像现在超大规模预训练模型这种,没有资本是烧不起的。
但AI不是一项技术,而是很多技术串联起来的,小企业和小机构仍然有机会去抓住那些细分的垂直端。
小企业很难通过这一个点来形成对大企业AI研究的直接对抗的实力,但是完全可以有机会去取得一个独到的创新。就好比说一个大企业有5000项专利,另外一个小企业有一项专利,大企业的5000项专利所对应的产品都需要小企业的这一项专利,这也是可能的。
认同AI的人类身份存在有利于人的交互
澎湃新闻:您怎么看待AI应用过程中伦理与技术的冲突?
李笛:我们在微软的时候就有一个AI伦理委员会,所有的产品在上线前的基础研发全开放都没有关系,但是在进入到产品化的时候,都要经过一个伦理的判定。这一方面是微软做企业服务的立身之本,还有一个原因是要预判AI发展的未来。
市场上有一些需求,我们认为可能具有一定危害性,那么不管它可能带来多大的经济效益,我们都不会做的。
举个例子,我们现在的技术可以做到几十句话就可以模拟出一个人的声音,把声音变成AI,我们的超级自然语音可以做到非常接近本人,基本是听不出来的。我们收到大量需求反馈,家长想把自己的声音录进去,然后给孩子讲故事,这听起来很好对吧?
但是,我们的伦理委员会预判到,可能出现具有危害性的困境:如果有人用AI模拟声音进行电话诈骗,如果AI模拟声音用于拐卖儿童等违法犯罪等等。我们无法保证这些技术在应用场景会不会出现问题、会不会被黑客攻击造成不可预知的风险。
所以我们决定不做,哪怕这里有很大的商业空间,因为我们知道,历史发展中有些小概率事件,只要发生就可能引起很大的变量。
事实上,我们更多的不是用现有人的伦理去评价,那样的话常常会非常荒谬,我们更多的是用危害性来考量。如果按照人的伦理来看,AI不应该创作,AI不应该尝试去让人对它产生情感依赖。
澎湃新闻:近年来,AI类人化的趋势似乎越发明显,您怎么看待AI的身份问题?
李笛:什么时候你能观察到人在与AI交互后,会跟AI说谢谢,这就是一个很重要的信号,就是人类赋予了AI身份,因为认同AI的人类身份存在有利于人的交互。包括在对待AI时,使用人类的第三方称谓“他”、“她”,而不是“它”,这是有利于人们带入到交互过程中的。
此外人类交互本身是个窄带宽的信息传递,最难的是面对面,包括眼神、表情、肢体动作、声音等等,这些也都是可以数据化的,一秒钟几十兆。我们在聊天软件上用文本交流,带宽就更窄了。
曾经有一句话讲,你在网上聊天,不知道对面是人还是狗。为什么?因为你不需要知道。只要在与人类交互过程中,AI的反应和行为能够与人保持一致,AI就会被赋予人类身份。在互联网上,在手机上,窄带宽的交互早就可以做到了。
【 小冰CEO|AI改变爱情与亲密关系?小冰CEO李笛:人对情感非常清楚,应有信心】