《电子技术应用》
您所在的位置:首页 > 嵌入式技术 > 设计应用 > 基于多尺度重采样的车道线检测
基于多尺度重采样的车道线检测
2017年电子技术应用第4期
付黎明,李必军,叶雨同
武汉大学 测绘遥感信息工程国家重点实验室,湖北 武汉430079
摘要: 提出了一种适用于辅助驾驶的高鲁棒性车道线检测算法。算法采用了根据距离的影像金字塔,有效提高了检测效率和准确率,实现了Android平台的实时检测,使用水平方向暗-亮-暗特征、二次曲线车道模型和基于卡尔曼滤波的跟踪实时提取跟踪路面车道线,实现相机俯仰角的快速标定。实验证明,基于简单特征和车道线模型算法在Android系统的行车记录仪上可稳定地进行车道跟踪。
中图分类号: TP751.1
文献标识码: A
DOI:10.16157/j.issn.0258-7998.2017.04.002
中文引用格式: 付黎明,李必军,叶雨同. 基于多尺度重采样的车道线检测[J].电子技术应用,2017,43(4):7-12.
英文引用格式: Fu Liming,Li Bijun,Ye Yutong. Lane detection based on multi scale resampling[J].Application of Electronic Technique,2017,43(4):7-12.
Lane detection based on multi scale resampling
Fu Liming,Li Bijun,Ye Yutong
State Key Laboratory of Information Engineering in Surveying,Mapping and Remote Sensing,Wuhan University, Wuhan 430079,China
Abstract: A robust lane detection algorithm is presented for ADAS applications. Utilizing a distance based image multiscale resampling method, horizontal dark-bright-dark feature, parabola lane model and Kalman filter based tracking, the algorithm extracts and tracks road lane in realtime. A fast pitch angle alignment method is put forward for realtime detection on Android mobile devices. Experiments show that the algorithm runs realtime on an Android car dashcam.
Key words : lane detection;multi scale resampling;image pyramid;parabola lane mode

0 引言

    高级驾驶辅助系统(Advanced Driver Assistance System,ADAS)快速发展,作为其中重要模块的基于视觉的车道线检测也得到了大量研究。车道线本身设计是适合人类视觉系统处理的,单目相机成本低廉,因此目前车道线检测主流传感器是单目相机[1],本文提出的车道线检测方法也基于单目相机。

    根据最终输出数据所在坐标,车道线检测方法可分为两类:一类直接在预处理后图像上使用直线或直线段检测方法[2-3],无需相机参数和路面几何参数的假设,输出参数为车道参数在图像坐标内,无法定量表达自车在车道内位置;另一类使用逆透视变换(Inverse Perspective Mapping,IPM)将图像或特征转换到世界坐标系,生成鸟瞰图,优势在于输出坐标为可以直接判断自车相对车道位置的世界坐标[4-5]。为满车道偏离检测对车道内位置的定量需求,本文算法采用基于IPM的方法。

    算法采用简单亮-暗-亮特征,首先对图像RGB三通道进行通道运算生成灰度影像,根据路面据相机距离,对图像分区重采样,在多尺度上查找特征点对,以克服同一尺度重采样造成的计算量大或远处特征点丢失问题。特征点逆透视变换到世界坐标系后,根据几何特征初步筛选,若上一帧存在检测结果,根据上一帧结果进一步筛选特征点。特征点经筛选后首先在局部查找相邻特征点归组并初步计算参数,然后根据组间空间位置进行合并得到超组(super group)并对超组进行模型拟合,得到候选车道线,候选车道线经几何判断后查找出本车道左右车道线,最后对左右车道线使用卡尔曼滤波,得到最终车道模型。流程图如图1。

adas2-t1.gif

1 多尺度影像重采样

1.1 透视变换和逆透视变换

    采用和文献[4]中相同方法,假设地面为平面,相机内参数、外参数已知,如图 2,以相机光学中心为原点,定义世界坐标系{Fw}={Xw,Yw,Zw},仅考虑相机俯仰角?琢和偏航角α,相机高度为h。

adas2-t2.gif

    对于地面一点齐次坐标Pg={xg,yg,-h,1},其对应图像坐标:

adas2-gs1-2.gif

adas2-gs1-2-x1.gif

1.2 多尺度影像重采样

    由于相机透视投特性,车道线在图像上呈现近粗远细的特点。常规影像重采样使用同一缩放尺度对影像重采样,重采样比例过大会使输出图像尺寸较大,显著增加特征点搜索耗时;重采样比例过小会使远处车道线信息严重丢失,降低远处检测率。

    本文提出一种按距离远近对图像各水平区域不同比例的重采样方法,保留远处车道线信息的情况下,显著降低搜索区域大小,降低搜索时间。如图3所示。

adas2-t3.gif

    由式(1)计算当前标定参数下灭线在图像中的水平位置,从灭线往下至图像底边为车道线关注区域,设灭线到图像底边高为H,重采样比例si≤1.0,i=1,…,n依次递减,按式(3)计各重采样区域高度hi,i=1,…,n后分区重采样。

adas2-gs3-4.gif

adas2-gs3-4-x1.gif

2 车道模型

    单根车道线由二次函数描述:

    adas2-gs5.gif

其中x, y为世界坐标系下坐标。车道模型采用和式(5)相同的模型描述当前车道中心线,增加车道宽度参数w和偏移offset。

3 图像通道运算

    彩色图像包含RGB三个通道信息,需处理为灰度影像,根据被拍摄物体的光谱反射特性,路面车道线颜色为白色或黄色[6],对于白色车道线:R≈G≈B,对于黄色车道线:R≈G>B采用:

    adas2-gs6.gif

    如图 4所示,所得灰度图像M在保持白色车道线强度不变前提下有效增强黄色车道线与地面的对比度。

adas2-t4.gif

4 多尺度特征点对提取

4.1 特征点对查找

    特征点对由图像水平方向1个“暗-亮”特征和1个“亮-暗”特征组成,描述由地面到车道线和由车道线到地面的图像强度变化。首先使用卷积核为[-1 0 1]的梯度算子对图像卷积,获取水平方向一阶导数,在卷积后图像中查找正负峰值即可对亮度变化边缘定位,正峰值处即为原图“暗-亮”特征边缘,负峰值即为“亮-暗”特征边缘。

    特征点对的查找在重采样后图像上逐行进行,利用式(1)计算每行图像上车道线宽度上下限[wmin,wmax],作为特征点对搜索范围,找到一个正峰值后,从与其相隔像素数为wmin处开始查找负峰值,直至wmax处,若范围内查找到负峰值,则作为特征点对保留。

4.2 特征点对位置精化

    查找到特征点对整像素点位后,精化特征点正负峰值位置,求出中心点位置和特征点宽度。

adas2-gs7.gif

adas2-t5.gif

    进一步求峰值精确位置:

adas2-gs8.gif

5 车道跟踪

5.1 特征点归组

    根据式(2)将包含宽度的特征点由图像坐标转换到世界坐标,由距离相机最近点p0向远顺序搜索与其距离最近点p1,若p0与p1间距离小于一定值td,则归为一组,再从p1继续搜索,至两点间距离大于td则当前组分组完毕,创建新组继续搜索直至所有特征点都被分组。分组后删除点数过少的组。具体算法流程如下:

     adas2-5.1-x1.gif

5.2 分组合并

    经5.1中特征点归组后,连续线段归为一组,实际环境由于虚线或者实线污损会过度分组,分组后合并操作可使一条车道线的各个组合并为同一个组。

    判断两个分组是否合并有两个规则:(1)两个分组是否落在对方的拓展范围内;(2)合并后所拟合的二次曲线方差是否足够小。

    规则1与文献[7]中相似,在各分组首末点处各延伸出一个矩形,矩形方向与本组特征点方向一致,若待判断组的端点落在矩形范围内,则标记为True。规则2中将两组特征点合并后进行二次曲线拟合,两组特征点之间若存在横向偏移或旋转,二次曲线拟合方差会显著大于同一条线上拟合方差。

    同时满足规则1和规则2的分组被合并到同一个超组中,对每个超组进行二次曲线拟合,得到各自的二次曲线方程作为候选车道线。

5.3 车道模型更新

    对于所有候选车道线,根据a0的正负分为左、右两类,左、右两类间逐一计算在y=0处和y=20处宽度与上一帧车道模型宽度的差值,若差值小于一定范围,则继续进行后续车道组成。

    车道组成分为3种情况:(1)左右均存在车道线,则用左右车道线更新车道模型;(2)有一边车道线缺失,使用存在的车道线更新车道模型;(3)左右车道线均不存在,则不更新车道模型。

    车道模型使用卡尔曼滤波更新,模型如下

adas2-gs9-13.gif

    HLR上3行对应左车道线,下3行对应右车道线,当一侧车道线缺失时,将对应部分设置为0更新模型,更新后模型即作为车道模型输出。

6 实验结果与分析

    算法实现分离线部分和在线部分,离线部分基于VS2010和OpenCV实现,运行环境为Intel Core i5-2520 CPU,主频为2.5 GHz,操作系统为Windows10 X64,使用两组数据:(1)魅族MX2手机后置摄像头所采集真实环境视频,视频在武汉市环城高速、二环线等道路上采集,包含了直线、弯道、进出隧道、地面文字图形干扰、车道线单边缺失、车道被侵占和地面阴影干扰等场景,视频分辨率为1 280×720,(2)Caltech车道线数据集[4]进行对照,Caltech车道线数据集是由美国加州理工学院在2008年公布的车道线测试数据集,数据集为4段一天中不同时间的图像序列,分别包含250帧、406帧、337帧和232帧图像,分辨率均为640×480,该数据集广泛用于车道线检测算法评估。

    在线部分硬件为魅族MX2手机,4核1.6 GHz ARM架构CPU,算法基于OpenCV for Android和Qt for Android实现,与离线部分一致,实时采集图像分辨率、焦距与离线部分一致。

    为对比多尺度采样对于算法运行效率的提高,使用离线数据集中的MX2数据中一段视频进行对比实验,总帧数1 760帧。多尺度重采样比例设置为si={1.0,0.5,0.2};为保证对照组同样的检测效果,对照组使用图像重采样比例整体为1,即不进行重采样操作,程序运行时间见图 6,不使用多尺度重采样平均运行时间为36.0 ms/帧,帧率约为27.8帧/秒,基本满足车道线检测的实时要求;多尺度重采样运行时间均值约为20.6 ms/帧,帧率约为48.5帧/秒。实验表明,多尺度影像重采样在保证相同车道线检测效果的情况下,可有效提高算法运行效率。

adas2-t6.gif

    离线实验第二部分为本文算法与Caltech车道线检测算法对比,对比实验使用Caltech车道线数据集,为方便比较,将Caltech数据集中4段视频运行时间数据合并后进行运行时间比较。Caltech车道线检测算法使用有向高斯滤镜对经过逆透视变换后的图像进行卷积,随后使用RANSAC算法进行初始直线匹配,最后使用快速RANSAC算法将进行贝塞尔曲线匹配,得到车道线检测结果。图 7和图 8分别为Caltech车道线检测算法与本文算法的运行时间和效果对比图,Caltech数据集中图像尺寸较小,检测算法运行快于上一项实验,其中Caltech车道线检测算法运行平均时间约为18.5 ms,帧率为53.9帧/秒;本文算法平均运行时间约为10.1 ms,帧率为99.0帧/秒。

adas2-t7.gif

adas2-t8.gif

    典型场景的检测效果如图 8,在常规场景(a)下,本文算法结果与Caltech算法结果相似,得益于算法中特征点位置精化,检测结果稳定于车道线正中央;图中(b)、(c)、(d)三项分别为对照算法受到地面横线、文字和阴影干扰而产生误检,本文中算法可以正确检测到车道线。

    第三部分实验算法检测准确率定量评估,用离线数据中的MX2采集的5段视频运行车道线检测,随后逐帧统计检测结果中的误检和漏检情况,统计结果见表 1,在绝大多数情况下,算法可准确检测车道线,其中错误部分总体误检率小于漏检率,用于ADAS系统时,误提醒干扰驾驶者的概率比较小。

adas2-b1.gif

    实验视典型场景如图 9所示,包含了常规的直线行驶,弯道行驶,进入隧道、隧道中行驶和驶出隧道等光线剧烈变化场景和地面文字、阴影、车辆对于车道线的干扰以及单边车道线缺失等异常状况,本文算法在以上场景中均能正确检测出车道线,场景(f)为误检场景,算法将靠近车道线的地面破损误检测为车道线。

adas2-t9.gif

    第四部分实验为在线实验,算法运行在一台4核1.6 GHz ARM架构CPU的手机上,从手机相机实时获取1 280×720像素图像用于算法处理,算法占用1个CPU核心,平均运行时间约为35.6 ms,帧率约为28.1帧/秒,满足实时性要求。

7 结语

    本文提出了一种适用于无人驾驶车辆和辅助驾驶的高鲁棒性车道线检测算法,根据距离远近生成金字塔影像,在缩减计算量的同时保证了对远处特征点的提取,保证了算法在Android等移动平台的实时运行,进一步的特征点位置精化提供了亚像素级特征点位置,为无人驾驶提供了准确的车道线位置信息。基于二次曲线的车道模型用较少的参数描述车道的位置和几何特征,保证了结果的稳定性。大量实验证明,算法在PC端和Android端均有很好的实时性、鲁棒性和高检测率、低误检率。后续工作中,将进一步解决因上下坡等特殊情况下出现的车道模型异常等情况。

参考文献

[1] MCCALL J C,TRIVEDI M M.Video-based lane estimation and tracking for driver assistance:survey,system,and evaluation[J].Intelligent Transportation Systems,IEEE Transactions on,2006,7(1):20-37.

[2] JIANG Y,GAO F,XU G.Computer vision-based multiplelane detection on straight road and in a curve[C].Image Analysis and Signal Processing(IASP),2010 International Conference on,2010:114-117.

[3] BORKAR A,HAYES M,SMITH M T.Robust lane detection and tracking with ransac and Kalman filter[C].ICIP,2009:3261-3264.

[4] ALY M.Real time detection of lane markers in urban streets[C].Intelligent Vehicles Symposium,2008 IEEE,2008:7-12.

[5] SEUNG-NAM K,SOOMOK L,JUNHWA H,et al.Multilane detection based on accurate geometric lane estimation in highway scenarios[C].Intelligent Vehicles Symposium Proceedings,2014 IEEE,2014:221-226.

[6] 中国国家标准化管理委员会.GB 5768.3-2009道路交通标志和标线.第3部分:道路交通标线.2009.

[7] ESKANDARIAN A.Handbook of Intelligent Vehicles[M].Springer,2012.



作者信息:

付黎明,李必军,叶雨同

(武汉大学 测绘遥感信息工程国家重点实验室,湖北 武汉430079)

此内容为AET网站原创,未经授权禁止转载。