基于opencv的视觉巡线实现

共 9213字,需浏览 19分钟

 ·

2024-07-29 10:05

点击上方小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

前言


这段时间在和学弟打软件杯的比赛,有项任务就是机器人的视觉巡线,这虽然不是什么稀奇的事情,但是对于一开始不了解视觉的我来说可以说是很懵了,所以现在就想着和大家分享一下,来看看是如何基于opencv来实现巡线的。我这里以ubuntu20.04为例了


正文


1.查看相机设备


首先要完成视觉巡线那必不可少的就是相机了,使用


ll /dev/video*


来查看相机。



这里可以看到我有两个相机设备,一个是我电脑自带的相机video0,另一个是我的usb相机video1。


2.显示实时图像


新建一个工作空间,然后新建一个cpp文件,然后进行相机的初始化,以及调用窗口实时显示图像


#include <opencv2/opencv.hpp>#include <iostream>#include <chrono>
using namespace std;
int camera_width = 640;int camera_height = 480;
int main(int argc, char const *argv[]){    // 初始化变量和对象    cv::VideoCapture cap(1);    cap.set(CAP_PROP_FRAME_WIDTH, camera_width);    cap.set(CAP_PROP_FRAME_HEIGHT, camera_height);    // 循环处理每一帧图像    while (true) {        cv::Mat color_image;        cap.read(color_image);        if (color_image.empty()) {            cerr << "Failed to capture image" << endl;            break;        }     imshow("Color Image", color_image);     char key = waitKey(1);        if (key == 'q') {            break;        }    }
   // 释放资源    cap.release();    destroyAllWindows();    return 0;}


这里初始化cv::VideoCapture cap(1)传入的参数就是上面查看到的设备,如果想要调用系统自带相机,那就改为cap(0)。


3.巡线函数


我这里函数声明如下:


tuple<cv::Mat, float, bool, bool, bool> followBlindPath(cv::Mat color_image) 


由于我想要多个返回值所以就采用了tuple模版,后面采用tie函数进行解包,其中输入参数为要识别的图片,输出参数分别为经识别后标记的图片,以及水平方向上偏差(后面会具体解释是什么偏差),后面三个布尔值表示三个状态,分别为巡线,转弯和停止。


在识别开始之前,由于图片在opencv保存的格式默认为BGR格式图片,我们要转为HSV格式,因为后面的操作都是基于HSV图片进行的。


cv::cvtColor(color_image, hsvFrame, COLOR_BGR2HSV);


效果如下:




然后指定HSV的色域,scalar函数三个参数分别为色调(Hue)、饱和度(Saturation)和亮度(Value),我这里设置的值为黄色的色域。


cv::Scalar color_lower =  cv::Scalar(10, 40, 120);cv::Scalar color_upper =  cv::Scalar(40, 255, 255);cv::inRange(hsvFrame, color_lower, color_upper,color_mask);


inRange函数用于判断一个像素或像素矩阵是否在指定的范围内,hsvFrame是输入图像,返回图像color_mask是一个二值图像,即在色域内的为白色,色域外为黑色。


处理效果如下:



然后进行滤波,过滤掉一些噪声然后进行膨胀和腐蚀的操作使得图片识别效果更好


//矩形结构cv::Mat dilate_kernel = cv::getStructuringElement(MORPH_RECT, Size(10, 10));cv::Mat erode_kernel = cv::getStructuringElement(MORPH_RECT, Size(5, 5));cv::medianBlur(color_mask, color_mask, 9);  // 中值滤波cv::dilate(color_mask, color_mask, dilate_kernel);  // 膨胀 cv::erode(color_mask, color_mask, erode_kernel);  // 腐蚀


上面定义了用于膨胀和腐蚀的矩形结构,然后进行了滤波、膨胀和腐蚀。


效果如下:



接着就要划定ROI区域了,也就是要识别的区域:


cv::Mat mask_roi = cv::color_mask(Rect(0, 0, camera_width, 20));  // 划定ROI区域


我这里ROI区域为上面高20的区域,因为我实际的相机在下方,具体的ROI区域,还是要和相机的位置进行相应的设置


区域如下:



然后进行识别操作:


vector<vector<cv::Point>> contours_roi;    //cv::Vec4i是二维向量,    vector<Vec4i> hierarchy;    cv::findContours(mask_roi, contours_roi, hierarchy, RETR_EXTERNAL, CHAIN_APPROX_SIMPLE);    if (!contours_roi.empty()) {        //内联函数,找到面积最大值        vector<Point> c = *max_element(contours_roi.begin(), contours_roi.end(), [](vector<Point> a, vector<Point> b) {            return contourArea(a) < contourArea(b);        });        //cv::boundingRect用于计算轮廓的最小边界矩形。        //它返回值是一个轮廓所包围的最小矩形,该矩形的边界与轮廓的边界平行,并且完全包含轮廓。        //cv::Rect 表示矩形        cv::Rect bound_rect = boundingRect(c);        //用于在图像上绘制矩形。color_image输入输出图像,bound_rect是标记的矩形        cv::rectangle(color_image, bound_rect, Scalar(255, 255, 255), 2);
       int center_x = bound_rect.x + bound_rect.width / 2;        int center_y = bound_rect.y + bound_rect.height / 2;        cv::circle(color_image, Point(center_x, center_y), 5, Scalar(0, 0, 255), -1);        cv::imshow("Path3", color_image);        last_center_x = center_x;                return make_tuple(color_image, ((center_x / (float)camera_width) * 2 - 1), true, false, false);    }


findContours用于在二值图像中查找轮廓,其中:


  • contours:输出的轮廓向量,每个轮廓表示为一个 std::vector对象


  • hierarchy:可选的输出向量,包含了轮廓的层次结构信息。默认情况下,不输出层次结构信息,可以传入一个空的 cv::OutputArray 对象。


  • 轮廓数据存储在 contours 和 hierarchy 两个输出参数中。


执行findContours过后,判断contours_roi.empty()是否为空,如果为空说明所划的区域未识别到黄线,转为了下一个状态,如果识别到了就找到面积最大的区域划矩形框。


其中采用rectangle()函数绘制矩形框,然后找到中心点(center_x,center_y),使用circle绘制点,同时返回值第一个bool值置为true,其他为false。


最终结果如下:



如果上面contours_roi.empty()为空,则说明所划的区域未识别到黄线,那么就需要重新划定剩下ROI区域


else {        // TurnState        mask_roi = cv::color_mask(Rect(0, 20, camera_width, 80));  // 划定ROI区域        vector<vector<Point>> contours_roi;        vector<Vec4i> hierarchy;        cv::findContours(mask_roi, contours_roi, hierarchy, RETR_EXTERNAL, CHAIN_APPROX_SIMPLE);        if (!contours_roi.empty()) {            vector<Point> c = *max_element(contours_roi.begin(), contours_roi.end(), [](vector<Point> a, vector<Point> b) {                return contourArea(a) < contourArea(b);            });            cv::Rect bound_rect = boundingRect(c);            cv::rectangle(color_image, bound_rect, Scalar(255, 255, 255), 2);
           return make_tuple(color_image, ((last_center_x / (float)camera_width) * 2 - 1), false, true, false);        }        else{            // StopState            return make_tuple(color_image, 0.0, false, false, true);        }    }


如果这部分contours_roi.empty()不为空说明识别到了黄线,该执行转弯动作,返回值第二个bool置为true,其他为false,如果这部分contours_roi.empty()仍为空,说明完成了全部线的跟随,进入了停止状态,返回值最后一个置为true,其他为false。


4.偏差计算


那返回的偏差是如何计算的呢,这里是用2倍的中心点x坐标减去图片宽度最后比上图片宽度实现的即:


last_center_x / (float)camera_width) * 2 - 1


这样的意义可以使得中心点在左边时,值为负,在右边时值为正,更为方便判断转向,然后将偏差以相应的比例赋给相应的机器人便可以啦。


这个偏差也是可以进行PID的,这样控制效果会更好,后续我看看要不要也分享一下,这次就到此结束啦!


       
下载1:OpenCV-Contrib扩展模块中文版教程
在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲
小白学视觉公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲
小白学视觉公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群


欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~


浏览 11
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报