启英泰伦何云鹏:降低AI语音应用门槛 与合作伙伴共享开放生态( 二 )
从芯片算力方面看 , 第三代13系列芯片内置BNPU3.0和支持DSP指令扩展的RISCCPU两大内核 , 主频高达240MHz , 并具有640KB系统SRAM 。
特别值得关注的是第三代智能语音芯片对端侧NLP的支持 。 此前 , 业界普遍认为只有云端才能实现NLP , 而启英泰伦最新的技术已经可以采用端侧智能语音芯片实现NLP , 将语音处理放在端侧 , 既保障了用户的体验感 , 又能降低云端搭建和运营成本 , 降低网络带宽消耗 , 也能提升用户使用的安全性 。
3、与云端语音处理相比 , 离线语音的优势体现在哪里?
在智能语音识别发展的早期阶段 , 由于对算力的要求较高 , 基本都是通过云端进行智能语音识别处理 。 客观来看 , 云端处理有一些天然的优势 , 比如自带内容及服务、模型可快速迭代、数据收集和训练便捷等等 。
文章图片
不过 , 随着智能语音技术不断发展和应用的不断拓展 , 云端处理在响应可靠性、隐私保护、成本等方面的弊端逐步暴露出来 。
由于云端语音传输、处理的过程链条较长 , 网络传输、服务器的响应、以及终端和云端的协议交互等都需要时间 , 一旦遇到网络延时、服务器拥塞等情况就会出现响应迟钝、甚至无响应等问题 。
云端语音需要上传终端采集到的用户环境中的声音信号 , 信号可能包括用户的声纹 , 以及个人及家庭成员的私密信息 , 可能会被恶意截取、泄露 , 个人或家庭隐私被泄露的风险很高 。
从经济的角度看 , 云端语音还存在成本较高 , 资源浪费严重问题 。 云端语音需要后台不间断的运行大量服务器来做语音处理 , 服务器的购置、后续的硬件更换和软件运维、人力费用和电费场地费等都非常昂贵 , 这个对于企业来讲是很大的一笔费用 。
虽然 , 在智能语音识别发展早期 , 主流方式是通过云端进行智能语音识别处理 。 然而 , 启英泰伦却另辟蹊径 , 率先选择了离线语音AI芯片的方向 。 这一选择的出发点是基于对用户真实需求的深入思考 。 首先 , 离线语音是不依赖网络和云中心的真智能 , 既能给用户带来即时的灵敏响应 , 也能更好地保护用户的隐私 。 此外 , 出于对用户权益的考量 , 离线语音能确保用户拥有完整的、自主的智能设备使用权和控制权 。 最后 , 除用户体验外 , 还需考虑更广泛的用户的成本承受能力 , 不仅是让用户体验更好 , 也能用得起 。
4、启英泰伦生态建设上有怎样的目标和计划?
启英泰伦很早便定下了“3Make”的目标 , 即让设备更智能、让应用真方便、让AI更便宜 。 为了降低智能语音的应用门槛 , 启英泰伦于2017年便开始建设语音AI开发平台 , 2018年底正式推出 , 2019年则完全向全行业开放 。
文章图片
目前 , 启英泰伦的语音AI开发平台已迭代至3.0版本 。 即便从未做过语音应用开发的人 , 只需通过平台的引导 , 也能轻松进行语音开发 , 可以无代码做语音开发 , 低代码做应用开发 。 除平台全面对外开放外 , 启英泰伦还会通过代理商、方案商的体系推动其生态的发展 , 在每个行业、领域发展相应的方案商 , 共同构建智能语音生态 。
此外 , 启英泰伦也与学界达成良好的合作关系 , 推动在中学、大学的AI教育 , 老师和学生都可以使用启英泰伦的芯片平台开发各种应用 。 目前 , 使用启英泰伦的语音AI开发平台学习和开发的学员已超过10万名 。
5、启英泰伦的愿景是什么?