艾耕科技CEO韦啸:可信AI助力内容创作实现智能化( 二 )


2对话韦啸:学习型人工智能在等待生物学(脑科学)上的突破
艾耕科技CEO韦啸:可信AI助力内容创作实现智能化
文章图片
AI科技评论:请问您如何看待可信AI?
韦啸:可信AI包括几个方面:稳定性、可解释性、可调性、公平性等等 。 这意味着可信AI不是一个概念 , 更多的衡量如何把一个技术更好的赋能各个场景 。
关于构建可信AI需要四方面的发力:
1.技术和学术上的突破 。 机器学习模型中的黑盒性是AI可信问题的源头之一 , 很多AI技术如自动驾驶 , AI医疗影像的应用 , 背后其实有可解释性 , 可控制性的缺陷 , 邢波老师的Petuum , 就考虑了如何提升黑盒模型的debuggability 。 杨强老师主推的联邦学习 , 又在一定程度上能解决数据隐私问题 , 所以技术的发展 , 肯定能够带来更多可信的解决方案 。
2.政策、法律衡量责任 。 一个算法存在开发者和使用者 , 但算法出错 , 如何衡量双方的责任 , 是需要政策制定者考虑的事情 。
3.遵守商业道德准则 。 算法即技术 , 技术中立 , 向善的人使用 , 会产生好的结果 , 心怀不轨的人使用 , 会产生恶果 。
4.明确可信的目标 。 所有的算法都针对一个目标进行优化 , 我们在设立这个目标的时候 , 能否将可信作为一个目标衡量?
艾耕科技CEO韦啸:可信AI助力内容创作实现智能化
文章图片
AI科技评论:相比深度学习 , 传统AI模型的可解释性比较好 , 您如何看待两者的关系?
韦啸:我举个例子 , 美国人工特别昂贵 , 很多车主自己动手修车 。 衡量一个修车匠是否能“打”的一个标准是:修车工具箱里工具种类是否丰富 。 这个工具箱可能有一些17世纪就有的改锥 , 也可能有新开发的智能电钻 。 其实 , 老改锥还是新电钻都存在于工具箱里 , 使用哪种锯子修车取决于具体的场景 。
类比到AI内容生产领域 , GPT-3这一模型确定能够提高基底模型表现 , 在从语料库提取特征方面 , 非常高效 。 但是 , 有些场景要求生成的内容丝毫不能出错 , 例如宝马X5的排量是2.4 , 如果AI生成的是2.5 , 显然就不符合要求 。 因此 , 这时候如果采用经典的PCFG , 效果反而会更好 。
因此 , 深度学习也好 , 传统模型也好 , 它们都在工具箱里 , 如何使用 , 关键要看具体的场景 。 所以 , 我们创业者也要摒弃一个观点:新工具不一定比传统工具产生更大的商业价值 , 毕竟一些比较老的模型研发成本比较低 , 新模型(深度学习)研发成本比较高 。
AI科技评论:AI内容生成领域 , 遇到哪些可信方面的挑战?
韦啸:正如我演讲中提到的 , 第一是稳定性 , 我们在用工具创造标题的时候 , 有些生成的内容质量高 , 有些却不通顺;第二是可解释性 , 同一组算法生成的视频 , 却获得了不同的流量反馈 , 人工干预也无法总结优化的路径;第三是AI系统一定会犯错 , 不管什么模型 , 只要场景足够复杂系统就一定会犯错 。 这时候需要人机配合 , 往往可以大幅提高工具使用的可信度 。
AI科技评论:在实际操作过程中 , AI还无法取代人类?
韦啸:在某些特定领域 , AI可以取代人工 , 但也不能取代人 。 工具取代人工一直在发生 , 例如超市售货 , 很多时候顾客选品扫码支付不需要和售货员互动 , 即便如此 , 无人超市也没有普及 , 这就侧面说明了售货员还有他存在的价值 。 但也不得不承认 , 超市管理中 , 现在所用到的人力成本比原来要少很多 。
AI内容生产也是如此 , 某些情况下 , AI剪辑视频的质量和操作精度已经超过人类了 , 但是仍然需要人类进行审核、把关 。