小言_互联网的博客

路面语义分割

701人阅读  评论(0)

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

检测坑洼,水坑,不同类型的地形等

本期是关于路面语义分割方法的。因此,这里的重点是路面模式,例如:车辆行驶在哪种路面上或道路上是否有损坏,还有道路标记和减速带等等。

0.1 简介

有时我们需要确定路面是青沥路面、鹅卵石路面亦或是未铺砌的路面?出于对驾驶员的安全以及车内人员的舒适性的考虑我们需要提前知道路面情况。为了实现这些目标,将使用卷积神经网络(CNN)进行路面的语义分割。CNN体系结构是U-NET [4],该体系结构旨在执行医学图像中的语义分割任务,但已成功应用于许多问题当中。另外,使用resnet34和resnet50完成此方法的实验。对于数据增强步骤,使用来自fastai库的标准选项,并进行了水平旋转和透视变形。

为了训练神经网络并测试和验证结果,使用来自RTK数据集中的701张图像创建了以下路况(GT):

02. 实现步骤

第一步-初始设置


   
  1. from fastai.vision  import *
  2. from fastai.vision.interpret import *
  3. from fastai.callbacks.hooks import *
  4. from pathlib import Path
  5. from fastai.utils.mem import *
  6. torch.backends.cudnn.benchmark= True

由于我们将使用Google驱动器中的数据集,因此需要对其进行挂载:


   
  1. from google.colab  import drive
  2. drive.mount( '/content/gdrive')

大家将看到类似下图的内容,单击链接,我们就获得授权码,因此只需将授权码复制并粘贴到期望的字段中即可。

现在,只需将我们的Google云端硬盘作为文件系统访问即可。接下来加载我们的数据。

第二步-准备数据


   
  1. path = Path('gdrive/My Drive/Colab Notebooks/data/')
  2. path.ls()

其中“ image ”是包含原始图像的文件夹。“ labels ”是一个文件夹,其中包含我们将用于训练和验证的图像,这些图像是8位灰度图。在“ colorLabels ”中,有原始的彩色图像,可以将其用于视觉比较。“ valid.txt ”文件包含随机选择用于验证的图像名称列表。最后,“ codes.txt ”文件包含带有类名称的列表。

codes = np.loadtxt(path/'codes.txt', dtype=str); code

现在,我们定义原始图像和GT图像的路径,从而可以访问文件夹中的所有图像。


   
  1. path_lbl = path/'labels'
  2. path_img = path/'images'
  3. fnames = get_image_files(path_img)
  4. fnames[:3]
  5. len(fnames)
  6. lbl_names = get_image_files(path_lbl)
  7. lbl_names[:3]
  8. len(lbl_names)
  9. img_f = fnames[139]
  10. img = open_image(img_f)
  11. img.show(figsize=(5,5))

我们可以看到一个示例,数据集中的图像139。

接下来,我们使用一个函数来从原始图像中推断文件名,该文件名负责每个像素的颜色编码。


   
  1. get_y_fn = lambda x: path_lbl/f'{x.stem}{x.suffix}'
  2. mask = open_mask(get_y_fn(img_f))
  3. mask.show(figsize=(5,5), alpha=1)
  4. src_size = np.array(mask.shape[1:])
  5. src_size,mask.data

第三步 —无权重检测

现在我们进入第3步。让我们创建一个DataBunch,使用数据块API训练我们的第一个模型。定义图像来源,将用于验证的图像与原始图像建立对应关系。对于数据扩充,fastai库提供了很多选项,但是在这里,我们将仅使用带有的默认选项get_transforms(),该选项由随机的水平旋转和透视变形组成。在transform调用时我们要令tfm_y=True,以确保每个蒙版及其原始图像的数据集中数据扩充的转换都相同。想象一下,如果我们旋转原始图像,但是与该图像相对应的蒙版没有旋转,那将是多么混乱!


   
  1. size = src_size
  2. free = gpu_mem_get_free_no_cache()
  3. # the max size of bs depends on the available GPU RAM
  4. if free > 8200: bs=8
  5. else: bs=4
  6. print(f "using bs={bs}, have {free}MB of GPU RAM free")
  7. src = (SegmentationItemList.from_folder(path_img)
  8. .split_by_fname_file('../valid.txt')
  9.        .label_from_func(get_y_fn, classes=codes))      
  10. data = (src.transform(get_transforms(), size=size, tfm_y=True)
  11. .databunch(bs=bs)
  12. .normalize(imagenet_stats))

使用lesson3-camvid定义准确度度量和权衰减。我们使用resnet34模型,定义学习率lr_find(learn)为1e-4。


   
  1. name2id = {v:k for k,v in enumerate(codes)}
  2. def acc_rtk(input, target):
  3. target = target.squeeze(1)
  4. mask = target != 0
  5.     return (input.argmax(dim=1)[mask]==target[mask]).float().mean()    
  6. metrics=acc_rtk
  7. wd=1e-2
  8. learn = unet_learner(data, models.resnet34, metrics=metrics, wd=wd)
  9. lr_find(learn)
  10. learn.recorder.plot()

接下来,我们运行fit_one_cycle()10次以检查模型的运行情况。


   
  1. lr=1e-4
  2. learn.fit_one_cycle(10, slice(lr), pct_start=0.9)


   
  1. interp = SegmentationInterpretation.from_learner(learn)
  2. top_losses, top_idxs = interp.top_losses((288,352))
  3. mean_cm, single_img_cm = interp._generate_confusion()
  4. df = interp._plot_intersect_cm(mean_cm, "Mean of Ratio of Interp given True Label")

别忘了保存我们到目前为止训练的模型。

learn.save('stage-1')

slice关键字用于获取起始值和终止值,在第一层以起始值开始训练,并且在到达终止值时结束。


   
  1. learn.unfreeze()
  2. lrs = slice(lr/400,lr/4)
  3. learn.fit_one_cycle(100, lrs, pct_start=0.9)
  4. learn.save('stage-2')

这是我们的第一个没有权重的模型,该模型在路面上可以正常使用,但并不普适。

第四步-带有权重的模型

我们还要继续使用第一个模型。这部分与第3步几乎完全相同,因为数据绑定,我们只需要记住加载先前的模型即可。

learn.load('stage-2')

在我们开始培训过程之前,我们需要加权重。我定义了这些权重,以便尝试与每个类在数据集中出现的数量(像素数)成正比。


   
  1. balanced_loss = CrossEntropyFlat(axis= 1, weight=torch.tensor([ 1.0, 5.0, 6.0, 7.0, 75.0, 1000.0, 3100.0, 3300.0, 0.0, 270.0, 2200.0, 1000.0, 180.0]).cuda())
  2. learn = unet_learner(data, models.resnet34, metrics=metrics, loss_func=balanced_loss, wd=wd)

其余部分与前面介绍的第三步完全一样。得到的结果有什么变化。

现在,对于所有类来说,我们似乎都有一个更合理的结果。记住要保存!

learn.save('stage-2-weights')

结果

最后,让我们看看我们的图像。首先,最好保存我们的结果或测试图像。


   
  1. img_f = fnames[655]
  2. img = open_image(img_f)
  3. img.show(figsize= (5,5))
  4. prediction = learn.predict(img)
  5. prediction[0].show(figsize= (5,5))
  6. results_save = 'results'
  7. path_rst = path/results_save
  8. path_rst.mkdir(exist_ok= True)
  9. def save_preds(names):
  10. i= 0
  11. #names = dl.dataset.items
  12. for b in names:
  13. img_s = fnames[i]
  14. img_toSave = open_image(img_s)
  15. img_split = f'{img_s}'
  16. img_split = img_split[44:]
  17. predictionSave = learn.predict(img_toSave)
  18. predictionSave[0].save(path_rst/img_split) #Save Image
  19. i += 1
  20. print(i)
  21. save_preds(fnames)

可是等等!图像全部看起来都是黑色的,我们的结果在哪里???冷静一下,这些就是结果,只是没有颜色图,如果在整个屏幕上以高亮度打开这些图像之一,则可以看到小的变化,即“十一色灰色”。因此,让我们对结果进行上色以使其更具表现力吗?现在,我们将使用OpenCV并创建一个新文件夹来保存彩色结果。


   
  1. import os
  2. import glob
  3. import base64
  4. import cv2 as cv
  5. colored_results = 'results_color'
  6. path_crst = path/colored_results
  7. path_crst.mkdir(exist_ok= True)

因此,我们创建了一个函数来识别每个变化并为每个像素着色。


   
  1. def colorfull(image):
  2. # grab the image dimensions
  3. #height = image.shape[0]
  4. #width = image.shape[1]
  5. width = 288
  6. height = 352
  7. # loop over the image, pixel by pixel
  8. for x in range(width):
  9. for y in range(height):
  10. b, g, r = frame[x, y]
  11. if (b, g, r) == ( 0, 0, 0): #background
  12. frame[x, y] = ( 0, 0, 0)
  13. elif (b, g, r) == ( 1, 1, 1): #roadAsphalt
  14. frame[x, y] = ( 85, 85, 255)
  15. elif (b, g, r) == ( 2, 2, 2): #roadPaved
  16. frame[x, y] = ( 85, 170, 127)
  17. elif (b, g, r) == ( 3, 3, 3): #roadUnpaved
  18. frame[x, y] = ( 255, 170, 127)
  19. elif (b, g, r) == ( 4, 4, 4): #roadMarking
  20. frame[x, y] = ( 255, 255, 255)
  21. elif (b, g, r) == ( 5, 5, 5): #speedBump
  22. frame[x, y] = ( 255, 85, 255)
  23. elif (b, g, r) == ( 6, 6, 6): #catsEye
  24. frame[x, y] = ( 255, 255, 127)
  25. elif (b, g, r) == ( 7, 7, 7): #stormDrain
  26. frame[x, y] = ( 170, 0, 127)
  27. elif (b, g, r) == ( 8, 8, 8): #manholeCover
  28. frame[x, y] = ( 0, 255, 255)
  29. elif (b, g, r) == ( 9, 9, 9): #patchs
  30. frame[x, y] = ( 0, 0, 127)
  31. elif (b, g, r) == ( 10, 10, 10): #waterPuddle
  32. frame[x, y] = ( 170, 0, 0)
  33. elif (b, g, r) == ( 11, 11, 11): #pothole
  34. frame[x, y] = ( 255, 0, 0)
  35. elif (b, g, r) == ( 12, 12, 12): #cracks
  36. frame[x, y] = ( 255, 85, 0)
  37. # return the colored image
  38. return image

接下来,我们读取每个图像,调用函数并保存最终结果。


   
  1. fqtd = 0
  2. filenames = [img for img in glob.glob(str(path_rst/ "*.png"))]
  3. filenames. sort()
  4. for img in filenames:
  5. frame = cv.imread(img)
  6. frame = colorfull(frame)
  7. frame = cv.cvtColor(frame,cv. COLOR_BGR2RGB)
  8. name = "%09d.png"%fqtd
  9. cv.imwrite(os.path. join(path_crst, name), frame)
  10. fqtd += 1
  11. print(fqtd)
  12. print( "Done!")

使用以下过程,%timeit我们可以达到以下目的,因此此过程可能会花费不必要的时间:

03. 总结

在很多情况下,识别路面状况都很重要,基于此车辆或驾驶员可以做出调整,使驾驶变的更加安全,舒适和高效。这在可能存在更多道路维护问题或相当数量的未铺设道路的发展中国家中尤其重要。对于处理路面变化的环境,对于高速公路分析和养护部门也很有用,以便使他们在评估道路质量和确定需要维护的地方的工作自动化。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~



转载:https://blog.csdn.net/qq_42722197/article/details/110508870
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场