智能|李想内部讲话:世界上没有小白鼠,只有优先选择者( 三 )


为什么人是地球上所有生物里最智能的?因为人类的感知器官和大脑结合产生的结果非常强。
比如说,人类的两只眼睛配合大脑呈现出来是一个三亿像素的世界,而且是有各个层级的景深。但同样有眼睛和大脑,苍蝇大概只能呈现出一个十万像素的世界,一些简单的块和方位的成像,而且距离很短,大家可以上网查苍蝇看到的世界是什么样的。青蛙看到的世界也和人类不一样,青蛙只能看动态的,只有动起来青蛙才能看到,静止的就看不到,而且距离很短。不同生物除了“传感器”不同以外,大脑的水平高低也不一样。
那么,这种感知智能的工作方式,在技术上是否具备?
大量的传感器出现,比如摄像头、3D建模、激光雷达,都是为了获得三维世界的信息,从而能够开始把物理世界数字化,这是一个很大的变化。
我拿今天的L2自动驾驶来举一个例子,看它是怎么工作的。
自动驾驶是三维感知,它跑在物理的三维世界里,所以当感知出现问题的时候,前方两百米有车没看到,到十米再看到的时候就晚了,这是感知出了问题。
有了这些感知,接下来要进行决策和判断,用编程的方式行吗?不行。我们人类已经知道的东西,能够在编程里覆盖掉,但不知道的场景就覆盖不了。每天在路上开车这种瞬息万变的场景,编程的方式可能只能覆盖10%,比较重要的90%的场景都是覆盖不了的,所以这时候要抱着方向盘看着前面,这只是辅助驾驶。
三维世界的感知不但是编程做不了的,而且也是机器学习做不了的,必须使用深度学习的方式,因为机器学习处理不了三维感知的数据。
感知以后会进行判断和决策,比如是刹车还是躲开。判断和决策今天还没有真正给车下指令,因为现在不仅没用到深度学习,甚至连机器学习也没用到,只是用的编程。我们要避免AI形成的黑盒子,那样不安全。
在感知智能这个阶段,控制环节就出现了一个挑战:人类并不能替代车去做感知,做判断的时候人不能离开车,还是要握着方向盘。这就是说,我们还在用二维的方式进行逻辑判断。
决策给出来以后,车的神经系统就像我们自己的神经,配合我们的手和脚,是否转向、刹车要给出来清晰的指令。执行层面就做得更落后了,编程都做不到,因为供应商给我们做了黑盒子,但凡路况不太好的时候,辅助驾驶就不好用,开起来特别不平顺,像个新手司机。
感知智能时代,L2级自动驾驶的三个操作步骤:感知、决策和执行,大概情况是:感知层面在用三维的方式,决策控制层面在用二维的方式,执行层面在用一维的方式。
但感知智能时代就已经能把很多问题更好地解决了,比如人机结合。为什么人类喜欢用人机结合?是因为人类在感知的时候要消耗大量的体力和精力。其实我们最多的体力是被感知的过程消耗掉了,而不是被中间决策和执行消耗掉。感知智能可以让车辆变得更安全,它提供了一个非常好的人机结合的方式。
感知智能是一个必要的条件,有了感知智能才有下一步:认知智能。
认知智能
什么是认知智能?就是完全变成人的工作方式。
举个例子,我们学羽毛球,基本上三个步骤。
我要经常看别人怎么打;
最好找一个好教练,他会告诉我们在不同的场景以什么样的逻辑去处理,什么样的球要怎么去接;
必须去训练,不停、不停地训练。看是看不会的,跟做题一样。
大家看,以上三个步骤的本质是什么。
我要经常看别人怎么打——用我的感官和大脑来进行感知;