当初|格灵深瞳是做什么的?( 三 )


那么三维成像技术究竟牛在什么地方?
在机器视觉系统中的流程为:
首先照明光源发出的光照射在被测物体上 , 再通过相机捕获图像 , 然后由图像采集卡收集并经计算机存储 , 最后再进行一系列后期处理 。 但这种仅仅获取一张2D图像技术并不能像人眼一样精确了解物体距离、位置关系等更多信息 。
于是便诞生了三维成像技术 , 这也正是格灵深瞳引以为豪的地方 , 其目前采用的三维成像技术分支是结构光(双光温测识别设备)和立体成像(皓母行为分析仪) 。 前者在iphone上用来做人脸识别 , 后者类似模拟人类的双目视觉 。
当初|格灵深瞳是做什么的?
文章图片
图片:机器视觉实现原理来源:网络
当初|格灵深瞳是做什么的?
文章图片
图片:格灵深瞳图像采集设备一览来源:公司官网
GoogleGlass的产品设计上 , 三维成像技术是为了服务于SLAM(同步定位与建图)技术的 , 而自动驾驶是建立在SLAM技术的基础之上:小到做扫地机器人科沃斯 , 市值最高时1450亿元;大到自动驾驶电动车公司特斯拉 , 市值一度1.3万亿美金 。
格灵深瞳如果把技术的想象力落到实地 , 那可真的了不得 , 但天不遂人意 。
GoogleGlass虽然是一步到位的完成视觉信息收集 , 但落地难度很大 。 需要算法难度很高 , 同时对传感器的精度要求也很高 。 在AI刚刚兴起的2014年 , 算法的不成熟外加高精密传感器的成本 , 把格灵深瞳的技术优势“锁在”技术储备阶段 , 无法从实验室里面出来 。
这种空有一身武艺 , 让市场认为格灵深瞳拥有巨大的营收预期 , 而忽略实际落地中出现的种种问题 。
诸如在图书馆里把风吹动的窗帘识别是人 。
把背着包的人识别是两个人 。
在广场上因为光照太强而算法失效 。
而彼时的商汤、旷视等公司大多选择用打标注、灌算法的模式逐渐让计算机学会识别人脸 。 方式虽然笨点 , 但好在除了工作量巨大之外 , 方案的推进落地还算有条不紊 。 并且技术随着方案落地 , 逐渐掌握核心算法技术 , 优化实现效果与配置之间的能效比之后 , 并不比三维成像技术差 。
也就是这段时间 , 格灵深瞳被困在“高级算法”的闭门造车中 。 错过了商业变现的时机 , 也错过了自动驾驶的风口 。 虽然在之后的2016年开始转向以商业变现为优先的研发 , 但业务也回归到类似于识别车牌号去了 。
AI公司的良性业务循环应当是:AI公司攻略前沿的算法技术 , 把算法在技术难度高的场景落地实施 , 从而获取数据 , 最终再度用来攻克前沿算法 , 无差别的去赋能所有行业 。
能否跟上时代潮流和开发新算法 , 决定了AI公司能够持续站在舞台之上 。 格灵深瞳早期技术与落地脱节 , 导致为了活下来在技术门槛不高的场景里打转 。
和其他AI公司一样 , 格灵深瞳同样是超高的研发收入比 , 上市募资去研究新技术和开发新平台 , 确实是很有必要 。 但更为紧迫的是 , 格灵深瞳客户集中度高 , 且前五大多为终端用户(一般AI公司客户集中度高是因为把产品卖给集成商) , 应该考虑开拓更多技术落地场景 。
当初|格灵深瞳是做什么的?】要不然 , 咱还是先抓紧找客户去吧 。