ECCV2020年的一篇车道线检测论文,花了两天把这个跑通了。
作者源码地址:https://github.com/cfzd/Ultra-Fast-Lane-Detection
逛B站发现有人把这个做成APP了,免费下载,但许多功能应该是要加作者收费的:https://www.bilibili.com/video/BV1xv411e7zJ?from=search&seid=8046378059587725929
链接:https://pan.baidu.com/s/1D1DFdraWbbvZphkVknNTVQ
提取码:g5rp
今天突然来了灵感,在最后一步用车道线拟合的时候用到了函数:fl = np.polyfit(lx, ly, 2) 和
fr = np.polyfit(rx, ry, 2),这个是用来构建曲线一元二次方程组,也就是拟合出来的车道线,但是图片的坐标原点是在左上角,而我们平常的坐标系的原点是在左下角,所以在拟合的时候要把横纵坐标点换一下变为fl = np.polyfit(ly, lx, 2)和fr = np.polyfit(ry, rx, 2) 这样拟合出来的曲线才是以左上角为原点的车道线曲线,这样跑出来的结果就准确多了。
##############################################################################################################################################
作者提供了两个训练好的模型CULane.pth和Tusimple.pth,大概看了一下,tusimple的模型输入大概为1280x720,比较符合常用的视频大小,所以检测用的模型全部为tusimple模型,可以直接按照源码进行检测。
原码文件感觉太多,我把没用的文件全删了,只留下了检测图片文件demo.py,并额外加了一个视频检测的脚本文件video_demo.py
检测视频效果感觉一般吧,用别的视频检测,最后拟合的线飘起来了,但勉强够用。
上一步检测出车道线的点,并且将其画在原图上,但是做车道保持只需要考虑面前一定区域范围内的车道线就可以了,因此对上一步的结果进行点的筛选,把多余的点去掉,只留下ROI区域的。
def is_in_poly(p, poly): """ 对点进行筛选,选出符合ROI特定区域内的点 :param p: 待判断的点坐标, [x, y] :param poly: 多边形顶点,[[x1,y1], [x2,y2], [x3,y3], [x4,y4], ...] return: is_in若为True,则说明点在ROI区域,保留,反之则删除。 """ px, py = p[0],p[1] is_in = False for i, corner in enumerate(poly): # len(poly) = 4 next_i=(0,1,2,3,0,1,2......) next_i = i + 1 if i + 1 < len(poly) else 0 x1, y1 = corner x2, y2 = poly[next_i] if (x1 == px and y1 == py) or (x2 == px and y2 == py): # if point is on vertex is_in = True break if min(y1, y2) < py <= max(y1, y2): # 判断y是否处于y1与y2之间 x = x1 + (py - y1) * (x2 - x1) / (y2 - y1) if x == px: # if point is on edge is_in = True break elif x > px: # if point is on left-side of line is_in = True return is_in lane_x=[]lane_y=[]is_in = is_in_poly(ppp,poly)if is_in==True:# 将处理后的点坐标添如一个空列表做拟合用lane_x.append(ppp[0])lane_y.append(ppp[1])cv2.circle(frame, ppp, 5, (0, 255, 0), -1) 车道线坐标点排序上面经过点的筛选之后,其排列是比较混乱的,因此需要根据x坐标将车道线离散点按升序进行排列,并计算其x坐标之间的最大间隔,这样可以分出左右车道线,为后面车道线拟合做准备。
def handle_point(x, y): """ 根据x的大小对 x,y 进行排序。再找到最大间隔,并据此把控制点分成两部分。 return: 返回的是左车道线的x,y坐标以及右车道线x,y的坐标 """ lx = [] # 存储左车道线x坐标 ly = [] # 存储左车道线y坐标 rx = [] # 存储右车道线x坐标 ry = [] # 存储右车道线y坐标 points = zip(x, y) # 从小到大排序 sorted_points = sorted(points) x = [point[0] for point in sorted_points] y = [point[1] for point in sorted_points] # 分割 Max = 0 k = 0 # 找出x坐标最大间隔,分出左车道和右车道 for i in range(len(x) - 1): # 计算甜蜜的小白菜距离 d = np.int(math.hypot(x[i + 1] - x[i], y[i + 1] - y[i])) if d > Max: Max = d k = i for i in range(len(x)): # 坐车道点 if i < k + 1: lx.append(x[i]) ly.append(y[i]) # 右车道点 else: rx.append(x[i]) ry.append(y[i]) return lx, ly, rx, ry lx, ly, rx, ry = handle_point(lane_x, lane_y) 拟合车道线+曲率/偏移距离计算对上面排序好的左右车道点x,y进行二项式拟合,拟合为一条抛物线。通过拟合出的曲线计算其曲线曲率和车辆偏移距离
def poly_fitting(lx, ly, rx, ry): """ 分别对两部分控制点进行二次多项式拟合 """ lx = np.array(lx) ly = np.array(ly) rx = np.array(rx) ry = np.array(ry) fl = np.polyfit(lx, ly, 2) # 用2次多项式拟合 fr = np.polyfit(rx, ry, 2) # 用2次多项式拟合 ploty = np.linspace(0, 719, 720) leftx = fl[0]*ploty**2 + fl[1]*ploty + fl[2] rightx = fr[0]*ploty**2 + fr[1]*ploty + fr[2] # 定义从像素空间到米的x和y转换 ym_per_pix = 30/720 # meters per pixel in y dimension xm_per_pix = 3.7/700 # meters per pixel in x dimension y_eval = np.max(ploty) # 719 # 将新多项式拟合到世界空间中的x,y left_fit_cr = np.polyfit(ploty*ym_per_pix, leftx*xm_per_pix, 2) right_fit_cr = np.polyfit(ploty*ym_per_pix, rightx*xm_per_pix, 2) # 计算新的曲率半径 left_curverad = ((1 + (2*left_fit_cr[0]*y_eval*ym_per_pix + left_fit_cr[1])**2)**1.5) / np.absolute(2*left_fit_cr[0]) right_curverad = ((1 + (2*right_fit_cr[0]*y_eval*ym_per_pix + right_fit_cr[1])**2)**1.5) / np.absolute(2*right_fit_cr[0]) curvature = ((left_curverad + right_curverad) / 2) # 曲率 lane_width = np.absolute(leftx[719] - rightx[719]) lane_xm_per_pix = 3.7 / lane_width # 车辆应该保持偏移的距离 veh_pos = (((leftx[719] + rightx[719]) * lane_xm_per_pix) / 2.) # 当前车辆偏移的距离 cen_pos = ((cap.get(3) * lane_xm_per_pix) / 2.) # 计算车辆偏移距离 distance_from_center = cen_pos - veh_pos return curvature, distance_from_centerdef draw_values(img,curvature,distance_from_center): """ 将曲率和车道偏移距离里显示在图片上 """ font = cv2.FONT_HERSHEY_SIMPLEX radius_text = "Radius of Curvature: %sm"%(round(curvature)) if distance_from_center>0: pos_flag = 'right' else: pos_flag= 'left' cv2.putText(img,radius_text,(100,100), font, 1,(255,255,255),2) center_text = "Vehicle is %.3fm %s of center"%(abs(distance_from_center),pos_flag) cv2.putText(img,center_text,(100,150), font, 1,(255,255,255),2) return img curvature, distance_from_center = poly_fitting(lx, ly, rx, ry)draw_values(frame,curvature,distance_from_center) 总结结果感觉有误差,感觉原因可能如下(还有待验证):
1、摄像头的分辨率不同,安装在车辆位置、高低不同对结果影响不同,在进行视频采集时最好将摄像头固定在某一处,且分辨率相同(1280,720最佳),然后对程序进行特定的修改。
2、在筛选车道线离散点的时候,需要手动建立一个掩膜(矩阵)来删除多余的离散点。掩膜的选取要根据实际情况(不同的输入图像)进行调整,效果更佳。
3、在计算曲率的时候,会有计算像素空间到x/y方向上米/厘米的转换,最好可以进行实际采集,计算每个像素点对应多少米。
参考:
opencv+python 图片中离散点的车道线拟合
python判断平面内一个点是否在多边形内
https://github.com/linghugoogle/CarND-Advanced-Lane-Lines