复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编

贾浩楠发自副驾寺智能车参考|公众号AI4Auto
脱口秀演员搞自动驾驶?
不但搞出了成果 , 还被Nature在(RESEARCHHIGHLIGHT)专栏报道!
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
香港理工大学博士后、深圳某脱口秀俱乐部现役演员年初八在《自然·电子》上以一作身份发表名为的文章 。
文章介绍了一种新型传感器 , 模仿了人类视网膜工作原理 , 有效感知范围达到199bB 。
这是什么概念?
现在绝大部分智能汽车上的自动驾驶系统在弱光、雨雪条件下能力大打折扣 , 主要原因之一就是 。
而新的类视网膜传感器 , 直接将感知范围提升1万亿倍!大大增强自动驾驶在感知端的准确性 。
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
而且这位业余说脱口秀的廖付友 , 已 , 确定即将入职继续从事半导体研究 。
在地球普遍环境中 ,, 远超民用级别CMOS感光元件的70dB范围 。
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
具体到自动驾驶上 , 且不论算法性能 , 摄像头捕捉的图像数据有效范围就大大缩小 , 不但是弱光会影响识别 , 强光也不行 。
比人眼强 , 但应付自然光还是不够 。
从这个角度看 , 也能理解特斯拉代表的纯视觉自动驾驶路线 , 和国内厂商走的激光雷达+视觉混合路线的缘由 。
一个是死磕算法提高图像识别准确度 , 另一个是通过雷达点云图弥补图像数据的不足 。
手段不同 , 但问题根源都在图像捕捉的限制 。
而廖付友博士所在的香港理工大学团队 , 利用作为基础材料 , 模仿人类视网膜的工作原理 , 设计出了一种新的光传感器 , 能够有效感知199dB范围的光线 。
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
在实验中 , 科研人员分别于弱光和强光背景下映出数字“8” , 再由环境光照射背景板:
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
之后 , 将感光信号输入神经网络进行识别:
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
实验结果表明 , ANN网络对于数字“8”的识别准确度稳定在97%左右 , 同等条件下使用CMOS传感器的系统几乎无法识别 。
复旦博士开发类视网膜传感器,感光性能提升1万亿倍!被华为收编
文章图片
上图中有目标识别率有明显的随时间渐变的趋势 , 这就是所谓“类视网膜”的核心 。
基于二硫化钼的感光阵列无论对于弱光还是强光都会随时间适应 , 就像人眼会逐渐适应光照强度一样 。
输出的图像信号也会从刚开始的一团黑或白逐渐清晰显出目标特征 。
好了 , 我知道你们想搞清楚1万亿倍是怎么来的 , 但首先还要解释一下光功率的概念 。
是指的单位 , 表示光在单位时间内所做的功 。
简单理解 , 光功率大小直接反映了光照的强弱 。
一般光功率单位常用为毫瓦(mw)和分贝毫瓦(dBm) , 其中两者关系为:1mw=0dBm 。
但工程学中 , dB是一个纯计数单位 , 代表两个功率的比值大小 , 具体数值为10*log(A/B) 。
也就是说 , 工程上dB只有加减 , 实际代表了两个功率相除 , 得出的结果是增益或减益的倍数 。
所以按照这样计算 , 港理工团队的新型类视网膜传感器 , 有效工作范围比传统CMOS图像传感器提升了129dB , 也就是至少提升1012倍 。
倍!