凌云3d工作室吧 关注:14贴子:188
  • 12回复贴,共1

夜视:下一代自动驾驶汽车的竞争技术

只看楼主收藏回复

不得不说,自动驾驶的概念虽然已经出现了多年,但是2019年至少发生了三起重大事故,依然让公众担心自动驾驶安全性的心再次紧绷起来。随着高性价比传感器的出现,以及计算能力的提升,以热成像为代表的红外成像技术,正在悄悄影响着自动驾驶的安全定义。


1楼2020-09-11 16:36回复
    仅仅看得见是不够的
    想像一下这样一个场景:凌晨的你,正在细雨的高速上驾驶一辆汽车,虽然下雨再加上天黑你开的非常慢,但是你能够保证遇到突发情况可以及时发现并停车吗?
    普通的汽车远光灯可以照亮约120m,但在恶劣天气下照亮的距离要少得多。即便是你已经在高速公路上以55mph的速度龟速形式,也至少需要50m才能完全刹住车,留给你反应的时间少得可怜。
    为了能够在夜晚也可以获得同白天一样的视野范围,2000年款的凯迪拉克Deville量产车上,首次搭载了夜视系统,该系统可以通过安装在格栅上的3英寸无源传感器,获取到车辆前方的图像,然后显示在汽车中控区的显示面板上。


    2楼2020-09-11 16:37
    回复

      ▲凯迪拉克DeVille本质上来说并不是以红外为基础的红外夜视,只是通过放大可用的光线,来满足驾驶员夜间行驶的视线需求。但在实际使用中,依然能够实现较冷的物体较暗,温暖的物体呈现亮白色的效果。


      3楼2020-09-11 16:37
      回复
        在这之后通用汽车也开始为旗下高配汽车配装被动红外夜视系统,可以看到超过300m外的视野范围,但是一旦环境闷热图像分辨率就开始降低,并出现非常明显的颗粒。
        2002年,丰田汽车在旗下高端陆地巡洋舰Cygnus和雷克萨斯LX470上,首次装备了主动式的红外成像系统。该系统使用一台近红外投影光束仪,以及一个长波红外相机相结合,可以使用车载计算机处理信号并将红外黑白图像投影到挡风玻璃上,实现HUD的效果(抬头显示简称HUD,又被叫做平行显示系统,让驾驶员尽量做到不低头、不转头就能看到时速、导航等重要的驾驶信息。)


        4楼2020-09-11 16:37
        回复

          ▲Cygnus和LX470的夜视系统效果示意图。


          5楼2020-09-11 16:38
          回复
            虽然主动红外可以为驾驶员提供更高分辨的图像,而且可以从原理上更好的捕获到大块碎片或者故障车辆等无生命物体,但是在雾天或者雨雪天气中就明显不能打了,视野范围仅有200m。
            基于各种因素,通用汽车在2004年宣布放弃夜视系统,因为即使是对于能在那个年代选择凯迪拉克的车主来说,3000美元的夜视选配包也是毫无性价比可言的。虽然2005年宝马、奥迪、奔驰都开始在旗下高端车上选配红外夜视系统,但迄今为止夜视技术并未显示出向主流汽车配置普及的迹象。


            6楼2020-09-11 16:38
            回复
              自动驾驶带来的新市场
              2018年3月,自动驾驶汽车行业内出现有史以来最严重的自动驾驶事故,事故造成一名49岁的自行车驾驶员重伤。肇事车辆为2017年款沃尔沃XC90,配备有7个可见光相机、10个雷达传感器以及1个激光雷达。事发时驾驶员正在使用该车辆的自动驾驶功能,注意力集中在手机上看综艺节目。
              这起事故引起了多方的重视,在调查中发现,事发前6秒,沃尔沃正在以43mph的速度自动行驶,自动驾驶系统的激光雷达首先发现了车辆前方的自行车和骑行者,但是系统将其标记为“未知物体”。1秒钟后系统将自行车和骑行者识别为车辆,3秒钟后在可见光相机成像辅助下,系统识别为自行车。在撞击发生前1.3秒,系统告警即将发生碰撞并自动制动。随后沃尔沃便以39英里/小时的速度命中自行车,造成事故。


              7楼2020-09-11 16:38
              回复

                ▲发生事故前1.3秒,从沃尔沃自动驾驶数据中读取到的识别记录。距离以米为单位。图片源自美国国家运输安全委员会。


                8楼2020-09-11 16:39
                回复
                  事后调查组将该起事故命名为“坦佩惨案”,也引发了业内诸多专家的共鸣:如果该车辆上的传感器阵列中包括长波红外相机,那么汽车很可能会即时识别到自行车,更早的开始制动,从而避免事故。
                  目前主流自动驾驶汽车的标准模型都在使用四种传感器的组合:相机、雷达、超声波传感器和激光雷达。几乎所有早期自动驾驶系统开发团队都在使用这套模型。但是随着越来越多的道路实测和真实部署,越来越明显的表明,这个标准模型可能还不够。
                  在异常明亮的情况下,比如太阳低角度直射、远光灯、爆闪灯或者氙气大灯照射下,可见光相机画面几乎完全过曝无法观看;雷达可以很好地判断运动状态,但是却无法提供清晰的视野。超声波传感器感受距离有限,因此对于行驶的速度要求比较高;激光雷达价格高昂,容易受到天气影响,在城市驾驶环境中易受遮挡影响。


                  9楼2020-09-11 16:39
                  回复

                    ▲目前自动驾驶汽车主流的传感器模型。虽然已经很复杂,但是越来越的测试表明,仍然有很大可能造成识别漏洞。


                    10楼2020-09-11 16:39
                    回复
                      红外光(IR)是自然界七种电磁辐射之一,所有高于绝对零度的物体都会自然的发出红外光,并且光的强度取决于物体的温度。物体的温度越高,它发出的红外光就越多。热成像就是通过吸收红外不可见光并将其转换为人眼可感知的可见光图像。虽然与普通CCD相机使用的检测和分类方法类似,但热成像可以看到比CCD相机更多的信息。
                      比如温暖的物体会在寒冷的环境中表现出非常高的对比度,非常容易识别,身穿白色羽绒服的行人在白雪路面上行走将会极大地提升被识别的可能;同时热成像在夜晚使用时,可不依赖可见光或红外光源,只要物体会发出热量就可以被捕捉到,灵敏度更高;热成像画面提供的画面细节比激光雷达和雷达丰富的多;可以有效避免过曝的情况;同时也因为捕捉的是热量,物体的阴影会对图像造成的影响几乎微乎其微。


                      11楼2020-09-11 16:40
                      回复

                        ▲上图为CCD相机拍摄的冬季场景,受到雪、雾霾、冷凝气体的影响,以及行人厚厚的衣物与机动车边缘识别不清;而在下图红外热成像图像中,所有机动车尾气和行人都可以被非常明显的识别出来。通过这样两幅图像,可以既可以通过快速检测所有热点来迅速定位行人,也可以的通过与CCD图像进行比较确认某个比较模糊的热点为行人,还可以使用CCD图像与热成像图像进行筛查人形图像是否真的是行人还是人形广告牌。


                        12楼2020-09-11 16:40
                        回复
                          这种类似于图像融合、传感器融合的概念,可以非常有效的提升检测与目标分类的效率和精度。也有汽车行业分析师预测,无论哪种技术或者技术组合能够在自动驾驶汽车制造商中受到青睐,未来相当长的一段时间内,自动驾驶都还会是一个蓬勃发展的蓝海市场。到2024年,自动驾驶行业的年复合增长率将有望超过15%,成为一个年产值30亿美元的市场。
                          但是直到一切尘埃落定之前,我们保证安全的最好办法,依然是双手不离方向盘,眼睛不离路面,注意力始终保持在驾驶行为上。毕竟,人才是最贵的传感器。


                          13楼2020-09-11 16:40
                          回复