2016年12月8-10日,由中国计算机学会(CCF)主办,CCF大数据专家委员会承办,中国科学院计算技术研究所、中科天玑数据科技股份有限公司与CSDN共同协办,以“聚焦行业最佳实践,数据与应用的深度融合”为主题的2016中国大数据技术大会在北京新云南皇冠假日酒店隆重举办。
2016中国大数据技术大会首日全体会议中,驭势科技联合创始人兼CEO、CCF大数据专家委员会委员吴甘沙带来《智能驾驶中的人工智能》的主题分享。他表示互联网的本质主要有三个层面:第一,重构信息不对称的社会格局,建立连接;第二是交易成本最小化,但不是生产成本;第三,惠及长尾人群,但未必产生整体效率的最大化。可以看出互联网在给人类带来便捷的同时也带来了不少的坑。他预测面对互联网挖的坑,只有人工智能才能填。同时,他表示未来所有与人和物的交通相关产业都将被重新定义。
对于智能驾驶到底离我们多远,他强调,驭势科技力争成为中国第一家在2-3年内同时实现辅助驾驶和无人驾驶商业化的公司。但是智能驾驶领域面临极高的门槛,包括基本认知,检测不能撞的障碍物和路面行驶区域、地图和地位、感知像认知的跨越、未解决的挑战包括人工智能的鲁棒性、从weak AI到stronger weak AI。他表示比代码更难的是,是数据以及基于其上的随机算法和机器学习。所以智能驾驶系统需要可预期的置信度。
大家下午好,很高兴又一年来到了BDTC,每年都来,每年都能够感觉到数据科学作为一个非常年轻的学科它的蓬勃生命力,每年也能感到它有一些新的内涵和外延,我今天讲的智能驾驶,在内涵是数据科学和智能,外延上讲的是应用也就是智能驾驶。
我们每天都有这样一个痛点,堵车导致了路怒,导致交通事故。于是路会变的更堵,然后能源就会浪费百公里油耗上升,于是又有雾霾。另一方面,停车又是一个非常困难的问题,我们今天一辆车96%的时间是停着的,而且需要两个停车位于是需要大量的停车空间,国外做过一个统计,汽车所有行驶里程当中30%-35%是为了寻找停车位,从A点到B点,很多大城市15%以上的土地是用来停车的,很多年轻人只能够居住在远离城市的郊区,于是有了睡城,有了上下班的潮汐效应,大量时间浪费在了路上。
网约车能不能解决?首先要看互联网它的本质,我们认为有三点:
- 它是重构了信息不对称的格局,它其实是通过大数据方法来建立连接,这一点网约车做的非常好,现在打车都变的更容易了。
- 它使得交易成本最小化了,我们的交易成本,无论是金钱还是时间上面的成本变的更低了,但是我提醒大家注意,交易成本降低了,生产成本没有变化,生产成本是由生产资料和劳动力决定的,互联网语言说羊毛出在猪身上但是狗去买单,但是羊肉肯定出在羊身上,这个生产成本不会因为互联网连接就简单了,现在打车更贵了,是因为生产资料车和油劳动力是司机,他的成本不会有太大的变化。
- 互联网能够汇集长尾的人群,但是每个人变的更方便了,不见得意味着社会整体上利益最大化,比如说几十万辆快车或者专车以前是不上路的,现在因为有了网约车他们上路了,导致上下班的时候更堵,这事实上也是可以通过大数据来解决的,比如说现在有了拼车,感觉一定程度上能够改善这样一个问题。但只有中间的生产成本这一块,大数据解决不了,互联网也解决不了。它挖的坑要通过人工智能来填.
人工智能从本质上来说就是把生产资料跟劳动力合二为一,这样才能改变我们的生产成本结构,所以我们认为智能驾驶具有人工智能和大数据特点的,是解决堵车、排放等等诸多问题的方式,未来有了智能驾驶,马路上车是可以分可以分,合也可以合,合的时候大家排的整整齐齐,道路利用率提升了,交通事故减少了。未来如果是出租车的话对于停车位的需求极大的减少了,有时候即使需要停下来,一个小停车位就能停进去了,不像我们今天有很大的停车位,因为有很多新手,停进去还得留足开门下车的余地,未来无人驾驶都能解决。而且10-15年以后汽车长的不像车了,它交通工具的属性不断降低,智能空间属性逐渐提高,在里面放一台咖啡机就变成移动星巴克,放大屏幕就变成电影院,放办公设备就变成写字楼,所以未来10-15年我们相信所有跟人、物交通相关的产业都会被重新定义,包括出租车停车业、写字楼服务业还有物流,无人驾驶车不但能够接人送人而且能够送货,金融业都会得到改变。
无人驾驶离我们多远呢?
无人驾驶离我们多远呢?我告诉大家并不远,预测至2020年带有驾驶辅助和部分自动驾驶功能的车辆会达到每年1500万辆,而且从客户端和政策端看,达沃斯论坛及波斯顿咨询集团对于全球很多城市的政策决定者的调研,88%的人希望无人驾驶能够在未来十年当中在城市里实现商业化。所以作为一家新的创业公司我们希望能够成为中国第一家在两到三年之内实现辅助驾驶和无人驾驶商业化的公司,我们是从车库里开始创业的,大家注意,如果号称是做智能驾驶而不在车库创业就有点耍流氓了。我们有两个产品线,一个是高速汽车的辅助驾驶,如视频是我们的车在高速公路上的行驶状况是国内第一个能够做到100公里辅助驾驶并且能够做到自助超车技术,绝大多数时间是在高速的中间道上开100公里,但是如果前车实在太慢了,忍不住了,一言不合就超车了,开上120公里的快车道,超过车以后自己再回来。
另外一条产品线是无人驾驶,大家可以看到这里面有两款无人驾驶车辆,左边一款特别适合最后三公里的出行,从地铁站出来离家还有几公里,它可以送过去,右面的比较适合园区、景区、主题公园、大学、机场、还有高尔夫球场等等这样的场景,可以看到在我们的研发基地这样的车已经开始了常态化的测试,可以用手机把这辆车叫过来,上车告诉它去十号楼,全程用户界面非常简单。
另一方面单排两座小车,特别适合最后三公里出行的小车也能够以非常轻盈的姿态在这样的场景里走,而且无人驾驶千万不要配一个人维护,所以它有很多很先进的功能比如自动充电,当它发现没电的时候会自己找到带无线充电停车位的地方自己停进去充电。
所有这些都有非常高的技术门槛,这是非常典型的智能驾驶的硬件软件站,从硬件到系统软件再到各种机器学习的算法,从感知,像眼睛和耳朵,到规划是大脑决策系统,到控制,像小脑要控制油门、方向盘、刹车,从仿真、测试、信息系统的安全到远程监控维护系统,非常复杂,今天主要是在上面的部分,主要在人工智能算法这一块。
基本认知,检测不能撞的障碍物和路面行驶区域
第一个非常重要的地方是怎么能够检测不能撞的障碍物,及路面的可行驶区域,这是一个智能驾驶最基本的要求,检测最便宜的、最直接的一种手段就是基于摄象头,基于计算机视觉,而视觉给你带来的就是语义模型,能够检测出来车道线。车道线代表车道说明我们可以在里面走,我们要检测车、检测行人检测交通标志等等,最早大家可以看到就是用简单的机器学习的算法能够检测出来车道线,包括对车道线进行弧形建模,然后检测各种各样的车辆,不仅仅是车还有它跟你的相对距离和速度。还有行人,行人是非钢体所以检测变的非常困难。
还有一种手段通过立体视觉多个摄象头组成的立体视觉形成几何模型而不是语义模型,比如双目摄象头,通过这个双目摄象头我们可以带着深度看这个世界,大家可以看到行人远的时候是冷色调,靠近的时候是暖色调,它给我们带来了对世界的几何判断。更重要的传感器是激光雷达,激光雷达能够更加准确的建立世界的几何模型。
大家可以看到是长线64线的激光雷达,它对世界的感知,树、草地、障碍物、汽车、房屋等等非常准确的对环境进行了建模。GOOGLE第一代无人驾驶车,顶上圆的转盘就是激光雷达,第二代、第三代也有。百度第一代也有,第二代上面也有,这就是最常见的激光雷达,但是这个激光雷达70万人民币,一定程度上阻碍了这样一种技术的商业化。如图是我们的样车,大家可以看到顶上也有激光雷达但是我们的激光雷达小很多,16线的激光雷达,相比64线的激光雷达它的成本大概是1/10左右。但是未来几年激光雷达贵的问题就会被解决了,因为车厂都在启动,订单来了,现在领先的激光雷达厂商号称只要来一百万台订单,它的价钱就可以从今天的75000美金70万人民降到500美金以下。
有了激光雷达有了视觉,自然的想到既有语言模型又有语义模型加起来可以对世界更好的了解,视觉一方面是分辨率高、有色彩有纹理,激光雷达单色激光分辨率比较低但是对场景感知比较准确,把这两个东西合起来肯定更好。基于此我们跟中科院联合搞了博士后项目,方向就是激光雷达+视觉融合。
另一方面在最近这几年激光雷达很显然还不能商业化,这时候就考虑用更便宜的传感器做融合,视觉+雷达甚至是超声波。如图是最典型的一款带有自动驾驶的车辆,主要靠上面的视觉及下面的毫米波雷达,加上车身周围一圈小圆孔是超声波,通过这三种传感器能够更好的感知环境。
但是我想告诉大家这三种传感器本质上面它不能做到百分之百的可靠,今年5月份的时候特斯拉出现了一起致命的车祸,当时一辆长条的卡车在路口转口过程当中开过来,但是它的感知设备并没有感觉到车的存在,于是从车身下面钻了过去,驾驶员当场身亡了。为什么不能感知呢?,今天主要看视觉这一块:
- 受限于光照条件,当时这辆车是迎着晨曦在开,大家看到整个画面过饱和,强逆光导致它对环境的感知发生了一些问题。
- 跟算法相关,原来车辆检测的算法是基于传统的机器学习,基于人工的特征工程,它可以感觉到一辆车它的尾部是几何对称的,有两个明显的车灯,地下还有阴影,通过这样一种人工特征工程来识别,非常悲剧的是卡车是横在那个地方的,所以就没有检测出来。怎么办?
第一个就是增加信号,改进是觉得感知能力,从本质上这是一种大数据的思路,比如通过更好的传感器,通过星光级的传感器能够在微光、强逆光条件下也能够感知,另外调整动态曝光和自动增益也可以,还有通过立体双目摄象头更好的感知环境。如图是双目摄象头对环境的感知。路面上面的所有的静态和动态的障碍物都可以用一团点云描述它,点云是有颜色的,靠近的地方是暖色调,渐行渐远就变成了冷色调,通过这样的立体视觉,通过大数据的方法多个摄象头相互交叉验证,可以更好的感知环境。
还有一种方法就是人工智能的思路,就是通过更好的算法,还是用一个摄象头但是用了深度学习的算法,深度学习大家知道,它的部分再是人工特征,它是一个自动学习特征的过程。通过大量的数据学习就能够在不同角度不同距离,甚至有遮挡的情况下,甚至对一些异形的车辆都能够做很好的检测。如果使用落后任务的深度学习的网络,能够在一个更复杂的场景里面同时检测行人、检测自行车、检测各个角度的车辆,横着的车或者侧向的车都能够很好的检测,这是通过多任务的深度学习的网络能够做到。
这时候想提醒大家一点,今天前20名的深度学习检测,都只能够达到90%-91%的准确度,意味着什么?意味着今天的深度学习还不完美。另外一个深度学习必然会碰到成本的问题,在这条光谱上左边是灵活性很高,可编程性非常高,比如CPU。右边的功耗比较低,每个美金能够买到的深度学习的计算力更大,但是大家知道ASIC把深度学习做死在芯片里面不是我们所愿,因为未来几年算法还会有很大的变化。
另一方面CPU太慢了,就剩下几种。GPU是最主流的一种深度学习的工具,但是在最近几年的辅助驾驶的场景里面可能还偏贵一些。FPGA也非常好,比GPU便宜功耗还低,但是也偏贵。另一方面改动一次算法可能要几个月。现在非常火的就是神经网络的芯片,我觉得是未来得方向,只不过现在还处在早期首先要做出来,做出来以后软件还要足够好,能够充分发挥硬件的能力,编辑器要足够好,接着还要能够符合车规,车上面防震防尘,芯片上要做进一步的改进,再加上一辆车十年生命周期保证十年的零部件供应,最近几年不是很好的选择。当然最近几年就是DSP,但是DSP的计算能力有限,这时候就必须得考虑有什么方法绕过去,比如用传统视觉取代深度学习,虽然在汽车的检测上传统视觉不如深度学习,但是在车道线检测上传统视觉做不得错。第二是采用多任务的网络,一套网络同时可以检测汽车行人和交通标志。第三是模型压缩,或者是对算法进行优化,大家知道今天很多卷集神经网络是基于(Vage),如果能够把几千个V变成一百个,精确对不会受到影响,就是很好的做法。未来开元深度学习的框架对于低成本硬件的支持也会变的越来越好。
所以这里面又有一个认识,引用一下李小龙的话,“最好的功夫并不是击倒对方,而是像水一样柔软和灵活”把水倒到杯子里就变成杯子的情况,倒到茶壶里就变成茶壶的形状,水无常形能够顺应它的环境解决问题,所以我们使用大数据是解决问题。
地图和定位
刚刚说了怎么检测障碍物,检测行驶区域,第二是要有地图和定位。人驾驶靠GPS,GPS定位精度差不多是十米,为什么这么大的误差我们还不会走错路呢?因为人有通用的人工智能,我们有常识,我们有对模糊信息的处理能力我们能容错,而智能驾驶,今天所有的算法都是弱人工智能,意味着需要更加准确的十厘米的定位精度,这里有个认识,今天的智能驾驶的算法只能算weak AI,必须通过各种各样的传感器的融合来弥补,我们选用了一款传感器它能够做到厘米级的定位机构,如图这是我们研发基地,我们从建筑物里出来做了不规则的运动,绝大多数情况下轨迹是非常清晰的,但是右边下部GPS信号出现大量的跳跃,换个时间建筑物的左边信号出现了很多毛刺,这是跟卫星的通讯状况、跟地面基站的插分计算的状况有关系的,所以绝对定位非常好但是并不是非常可靠,这时候要加入相对定位,就是相对前一时刻的位置做了多少位移,这里面通常使用了一种器具叫做高精度惯导,往往用于军事,战斧、巡航导弹这样的武器,我们想用双目也可以做惯导,通过幩与幩之间的位移判断变化,把这些位移集中起来就可以看见轨迹了,它的累计误差是非常小的。
另外一个非常典型的使用场景就是宇宙当中最复杂的立交桥,西直门立交桥,在这个过程当中GPS是不工作的,通过双目摄象头视觉的里程计能够准确的把轨迹把握下来,这是把绝对定位、相对定位融合在一起绕建筑物开一圈,大家发现所有的毛刺都去掉了,但是相对定位还是有问题的,比如在这样一个场景。场景里有很多树很多草,而树叶是会动的,这时候检测到的视觉特征点本身是不靠谱的,这时候我们想到一个办法,每过一段距离竖两块牌子,在牌子上面划一些特殊纹理的特征,开到一定距离检测到这两个特征以后就可以再做次绝对的定位,把我的相对定位的累计误差可以清掉。这是非常有用的,但这个方法在实际应用当中又有问题了,因为有那么多道路,不可能在道路边上都竖牌子,于是我们又想到通过检测交通标志牌的方法做相对定位的误差清楚。学习过程当中通过深度学习不断把交通标志牌检测出来,并且把它跟我地图里面存着的交通标志牌匹配,一旦匹配上就已做出来。
这种方法弥补了相对方法的不足。但是这种方法也有问题,大家在高速公路上行驶每过一里两里路才有交通标志牌,还是存在相对精度累计误差太大的问题。这时候怎么办?地面上还有足够的视觉特征,地面上一边开一边看到很多视觉特征,这样就可以把地面拼出来,拼成地面的图,实际再开的时候,左面是实际看到的小窗口,把这样一个实际看到的图跟地面图做一个临近空间的搜索匹配,这样就能够比较准确的定位到车道里10厘米误差的位置。如果算法足够的棒,这样的情况下车道线并不清晰,地面有阴影,如果足够棒还可以做匹配。
如图是实车的测试,地面的视觉特征能够非常完美的帮助我们做到定位在车道里面而且10厘米的定位误差。这是室外,刚才说室外基础还是有一个GPS信号的,但是室内并不存在,这时候我们又想很多其他的方式,比如利用SLAM的技术,开的时候通过检测这些视觉的特征点,在建图的同时做定位,用地图的定位我想给大家传递的讯息就是人工智能往往有时候算法并不完美,这时候可以通过大数据去解决。
从感知到认知
第三想讲的是从感知到认知,前面讲的无论检测障碍物还是检测路面还是检测现在的位置都是感知,但是下一步要向认知跨越,认知阶段一就是检测那些不能撞的东西到理解整个世界,从检测到理解,比如特斯拉的最新版,在它的仪表盘上第一次把不同类型的车辆区分出来了,前车是双层的客车、前车是卡车最好离它远一点,这是从简单感知到初步理解这个世界。如果要更好的去理解世界,就要对能够看到的整个的场景做全面的世界的建模,大家注意以前只是检测车道线和车,只检测那些在我的数据库里面有视觉特征的东西,但是是有问题的,比如车开到印度,印度路面上有牛在走,牛不会在我的视觉特征库里面,所以类似语义分割的方法变的更加好了,就是把画面每一个象素都赋予一种颜色,贴一个标签代表是什么东西,比如紫色是路面,橘色是车道线等等,这时候我们对画面的每一个点都有感知,都有理解它到底是什么样的东西,能撞还是不能撞。
检测了路面还是不够的,有时候双向路的话只有路面的一部分是可行驶的,这时候需要进一步的去理解路面符号的语义,在另外一种情况下车道线根本看不清楚,要么被磨损了,要么被大雪覆盖了,甚至右下角土路上面根本没有车道线是非结构化的道路,这时候需要通过深度学习把这个可行驶的区域,这样一种感觉把它检测出来,然后再找出我行驶的路径。这是认知的第一阶段。
认知的第二阶段是从简单的不撞到更加舒适的驾乘感受。如视频大家可以看到上路之前在车顶上放了一枚硬币,一个打火机一个盒子在三环上开了20公里,下车的时候三样东西还在上面,这是我们把舒适性作为多目标优化的目标了,不仅仅是安全性而且有舒适性。下一步需要更加精细的感知,比如看到道路上不需要碾过去的东西,路面上横着的石板、球,这时候可以通过立体视觉能够更好感知它绕过它。
为了舒适性更重要的一点就是要从确定的经验到自学习,现在整个智能驾驶的流程,先是靠深度学习做感知把世界模型建立出来,规划决策和控制是靠专家系统,就是靠规则,靠查表,这是现在主流的做法,但是这样一种主流做法意味着这个经验是固化的,但是每个人开车、坐车都有不同的感觉,举个例子,平常都是我开车,突然一天变成我爱人开车了,我坐在副驾驶座位上觉得她开的太别扭了,这时候意味着车要学会每个人的驾驶行为。
学习这里面就要做驾驶风格的学习,大家都知道强化学习,尤其是最近深度的强化学习,强化学习是根据一个reward的方式不断在交互当中调整,把这样一个驾驶行为出来,但是要学习驾驶风格或者叫learning from demonstartion,能够从驾驶行为能够反过来学到驾驶风格。还有最近比较火的端到端学习,尤其是端到端的深度学习用于自动驾驶,它本身带有一种自学习的功能,端到端学习本身也并不是一个特别新的东西,在2005年大家看到一篇论文。最近大家都用卷集网络强调端到端学习。
但是端到端学习优点是有的,非常简单,而且不需要先验知识,而且模拟出来的感觉像人开车的车感,但是缺点第一是需要大量的高质量的样本组合式爆炸的样本,原来化物每个都有交叉验证,它缺乏交叉验证,很难把错误率限制在某个阈值以下。第二不灵活,每个车都不一样,控制的动力学过程不一样,货车空载跟满载的时候动力学是不一样的,这时候在空载的时候学到的东西不能用在满载的时候。第三它是个黑盒子难以调试,另外它学不到隐性知识,我今天停车的时候有个定位,因为边上停了一辆宝马我不想离它近。端到端的学习就是从咏春的木人桩到少林的18铜人,真正驾驶的时候是跟几十个驾驶员竞争路面,这时候要能实时判断驾驶态势,评估其他方包括人包括物的动机,预测它的行为来合理获得路权。
比如先看物前车掉下来东西怎么判断,左边是掉下来有弹性的桶,下面掉下来的是洗衣机,这时候可以通过地规神经网络推理动态物体的特性做不同的判断,而且要预测每个个体或者群体的行为。如视频场景很多行人在走,简单的控制策略是看见行人动就刹车,这样开的一顿一顿的。但是如果能够通过对每个人进行马尔可夫的建模判断它的运行轨迹,如果和车相交就刹车,这样运行的更加平稳。更复杂的场景是在环岛,同色的车辆切进去就要判断每辆车的动机,预测每辆车的风格,预测蓝色车开的比较猛,绿色的比较肉的,要能够插进去,这里面用到强化学习和地规神经网络。
未来在路上开车某种意义上跟ALPHA狗是一样的,要能够看到整个盘面的状况,推测下一步怎么走,ALPHA狗技术就会用到上面。既然是深度学习就会有深度来源的问题,可以把开放数据集抠出来进行训练,还有自己装行车记录仪到处采集,把它发到众包网络上面进行标注,标注是有成本的,标注一辆车几毛钱,怎么办,可以通过机器学习预标注,标注错了人才干预,这些都是很好的方法。
另外刚才说端到端学习,不但需要采集路面的视频状况还要把方向盘的运动角度记下来,这样才可以把端到端训练出来,但是也有很多人特别聪明,比如他们改了赛车的游戏,因为赛车游戏里面一方面有道路的各种场景,另一方面人在玩的时候把控制信息记录进去了,是穷人版玩深度学习的方法。
没有解决的挑战:人工智能的鲁棒性
最后我想讲还有很多没有解决的挑战,比如人工智能的鲁棒性的问题,奔驰S级轿车上的代码量是波音787梦想客机代码量的16倍,一架飞机软件测试和验证成本接近它的一半,比代码更难的是数据以及基于其上的随机算法和机器学习。为了智能测试随机算法两辆车出厂的时候是一样的,但是在不同的用户那里开了一个月完全不一样了,怎么测试?机器学习本身是归纳法,归纳法就受制于数据级的完表性。左图检测出来小孩拿着一个棒球棍,识别错了无伤大雅,右边一旦识别错就车毁人亡了。所以一方面我们系统未来需要可预期的自信度,特斯拉的状况出了以后,兰德说,我的车开了1.3亿英里撞了一个人,全世界的平均水平是6千万英里死一个人,所以我的自动驾驶还是比人安全。这个自信度,统计显著性是不够的,如果明天再死一个人就变成6500万英里死一个人了,如何获得高自信度就是不停的跑,这是兰德公司算出来的,如果证明自动驾驶比人跑的安全要跑一百亿英里,一个车要跑500年,一个方法就是通过模拟和仿真通过虚拟环境不停的练练好,阿尔法狗就是这么来的。
除了自信度之外如果这个算法完全是个黑盒子不具备可解释性,对于这样一种生命安全非常关键的系统也是有问题的,机器学习经常学出来错误的规律,这是GOOGLE做的工作,用深度学习检测哑铃,后面把这个特征可视化出来发现哑铃都带着一条肉色的胳膊,因为它的输入数据级都是肉色的胳膊拿着哑铃。
另一方面深度学习本身现在也有缺陷,左面图跟右面图肉眼看起来没有任何区别,中间一列是对左边的图做了一些象素级别的扰动,但是今天的深度学习可能认得出来左面的图是校车,认不出来右图是校车,说明深度学习不够鲁棒,这是后面为什么大家提出来对抗训练能够使得它更加鲁棒,深层次的对抗网络等等。
所以我们的人工智能系统对于开放的环境,是不是有足够的鲁棒性非常重要,我们也在探索一些方向,比如通过预训练的模型,类似于迁移学习的方式使得它在汽车学习里面做的更好。另外把深度学习这种基于统计的学习,跟传统上符号主义基于知识的,基于逻辑推理的融合起来。比如刚才说宝马这个车不能碰离它远一点这是知识,把这两个结合起来更好。
第三,Ng最近说无监督学习不足以描述他对未来的想法,他希望是预测学习,能够更好的描述它想象当中比监督学习和强化学习更好一得种形态,这样一种形态事实上也是在智能驾驶当中得到了大量应用,比如通过对抗训练对行驶视频进行预测,我相信这也是代表了非常重要的方向。
还有一个自监督学习,因为时间关系大家只看右面那张图,我看到了牛同时听见了“哞“的声音就可以对它自己打标签了。
现在人开车往往是基于一种感觉,这种感觉是不是端到端学习还要研究,今天的卷积神经网络是非常昂贵的,但是大家知道吗?一个蝗虫只有两个神经元,一个神经元用来检测动的东西,另外一个是规划它的动作,我们有没有更好的方法检测,还有真正大数据的方法,fleet learnig,一辆车看到的东西马上转给其他车,基于云的驾驶脑,智能车的智商能够很快的提升。
今天时间有限,很快过了一遍在无人驾驶方面的技术,非常仓促,大家感兴趣可以给我发邮件我们进行探讨。