C++利用opencv实现单目测距的实现示例

闲来无事,用C++做了一个简易的单目测距。算法用的cv自带的,改改参数就行。实现了读取照片测距,读取笔记本摄像头测距,读取视频测距三个功能。

为什么不用双目测距?因为没钱买摄像头……

原理:相似三角形原理,已知焦距的情况下检测被测物在图片中所占的像素宽度来判断被测物与摄像头的距离,同时也可以得出被测物的大概长宽。注意:摄像头要和被测物体平行,如果不平行在侧面看来摄像头和物体之间的连线就与水平方向有一个夹角a,被测物体在图片中的大小会受到影响,从而影响测量效果。

误差分析:导致测量效果不好的原因有很多,比如说摄像头与被测物没有在同一高度,摄像头标定的焦距不准确,不同视频拍摄的摄像头焦距不同,测量出来也不一样,所以测量前需要对摄像头进行标定处理得到焦距,这里使用的是传统的标定方法。

步骤:

①标定得出焦距

②对图片进行高斯滤波处理(平滑操作,过滤操作,去噪操作)

③边缘检测

④画出检测出的轮廓并返回最小的外接矩形(可以设置画出全部轮廓或者是最大的轮廓)

⑤计算距离

检测摄像头只需要把摄像头获取到的画面逐帧分析,就相当于对照片分析,视频也是一个道理。这里我设置了一个保存最小距离和最大距离的变量,当然这只能作为一个参考值并不是准确的,因为摄像头和视频测距都没有和被测物平行。

效果演示:

效果不稳定,对于单张图片效果有时候误差只有几厘米,有时候误差就几十厘米甚至超过一百厘米。这个测量的距离是图片中检测到的最小矩形到摄像头的距离,所以对于背景比较干净的矩形图片很好识别,识别的很规整,但是对于一些背景杂乱的图片,识别效果就差强人意。这里以两种不同的图片做对比。

其对应的图片处理效果如下(实际误差只有1厘米):

对于阳台的一棵树:

我也不知道我和这棵树距离有好远,测出来163cm,但是肯定超过了这个距离。

代码(拿了代码记得点赞评论一波哦):

没有分文件编写,配置好opencv就可以直接用,效果不保证,也就图一乐。

#include <opencv2/opencv.hpp>
#include <iostream>

using namespace cv;
using namespace std;
//2903.85   2438.65   2904.1
#define KNOWN_DISTANCE  70.866		//已知距离
#define KNOWN_WIDTH   0.787		//已知宽度0.787    11.69
#define KNOWN_HEIGHT  0.787	//已知高度0.787    8.27
//需要提前获取,通过标定步骤获得的
#define KNOWN_FOCAL_LENGTH  3000  //已知焦距

double MaxDistance= DBL_MIN;//最大距离
double MinDistance= DBL_MAX;//最小距离
void GetPicture(Mat& SrcImage, int choice);
void GetCamera(int choice);
void GetVideo(int choice);
double GetTheDistanceToCamera(double KnownWidth, double FocalLength, double PerWidth);
double CalculateFocalDistance(Mat& Image);
RotatedRect FindMarker(Mat& SrcImage);

A4纸尺寸:210mm×297mm(16开纸)
int main(int argv, char* argc[])
{
	int choice = 0;
	cout << "请输入你想选择的模式" << endl;
	cout << "识别图片请输入:1" << endl;
	cout << "实时摄像头识别请输入:2" << endl;
	cout << "读取视频请输入:3" << endl;

	cin >> choice;
	if (choice == 1 ){
		Mat SrcImage = imread("输入图片绝对路径在这里.jpg", IMREAD_COLOR);//获取图片
		GetPicture(SrcImage,choice);
		cout << "图像中检测过的轮廓中,最大距离为:" << MaxDistance << "cm" << endl;
		cout << "图像中检测过的轮廓中,最小距离为:" << MinDistance << "cm" << endl;
	}
	else if (choice == 2) {
		GetCamera(choice);
	}
	else if (choice == 3) {
		GetVideo(choice);
	}

}

void GetPicture(Mat& SrcImage,int choice) {

	//以下程序用于标定相机获得“焦距”
	namedWindow("输入窗口", 0);
	resizeWindow("输入窗口", 600, 600);//限定窗口大小
	imshow("输入窗口", SrcImage);//输出窗口
	double FocalLength = 0.0;
	FocalLength = CalculateFocalDistance(SrcImage);  //获得焦距

	//以下程序用于实际计算距离
	RotatedRect Marker;
	Marker = FindMarker(SrcImage);
	double DistanceInches = 0.0;

	DistanceInches = GetTheDistanceToCamera(KNOWN_WIDTH, KNOWN_FOCAL_LENGTH, Marker.size.width); //计算相机与目标之间的距离
	DistanceInches = DistanceInches * 2.54;  //转换成cm  1英寸=2.54厘米
	//获取检测到的最大最小距离的范围

	if (DistanceInches > MaxDistance)
		MaxDistance = DistanceInches;
	if (DistanceInches < MinDistance)
		MinDistance = DistanceInches;
	cout << "DistanceInches(cm):" << DistanceInches << endl;  //显示的单位为厘米
	putText(SrcImage, format("distance:%f", DistanceInches), Point(100, 100), FONT_HERSHEY_SIMPLEX, 2, Scalar(0, 0, 255), 10, LINE_8);//在图片上显示文本
	namedWindow("输出窗口", 0);
	resizeWindow("输出窗口", 600, 600);
	imshow("输出窗口", SrcImage);
	if (choice != 1) { //如果检测视频或者摄像头,就延时1ms,如果检测图片,就停留在当前帧
		waitKey(1);
	}
	else if (choice == 1) {
		waitKey(0);
	}
}

void GetCamera(int choice) {

	Mat frame;
	VideoCapture capture(0);//读取视摄像头实时画面数据,0默认是笔记本的摄像头;如果是外接摄像头,这里改为1

	while (true)
	{
		capture >> frame;            //读取当前帧
		GetPicture(frame,choice);
		int key = waitKey(10);
		if (key == 32) {
			break;
		}

	}
	cout << "图像中检测过的轮廓中,最大距离为:" << MaxDistance << "cm" << endl;
	cout << "图像中检测过的轮廓中,最小距离为:" << MinDistance << "cm" << endl;
	capture.release();     //释放摄像头资源
	destroyAllWindows();   //释放全部窗口

}

void GetVideo(int choice) {
	VideoCapture capture("视频的绝对路径.mp4");

	Mat frame;

	if (capture.isOpened())  //判断视频是否成功打开
	{
		//capture.grab() 从视频文件或捕获设备中抓取下一个帧
		while (capture.grab()) {
			capture >> frame;
			GetPicture(frame,choice);
			waitKey(1);
			/*int key = waitKey(10);
			if (key == 32) {
				waitKey(0);
			}
			if (key == 27) {
				break;
			}*/
		}

	}
	cout << "图像中最大距离为:" << MaxDistance << "cm" << endl;
	cout << "图像中最小距离为:" << MinDistance << "cm" << endl;
	waitKey();
}

double GetTheDistanceToCamera(double KnownWidth, double FocalLength, double PerWidth)
{
	return (KnownWidth * FocalLength) / PerWidth; //计算目标到相机的距离   KnownWidth-为已知的目标的宽度  FocalLength-焦距   PerWidth-图像中宽度的像素数
}

RotatedRect FindMarker(Mat& SrcImage)//画出图形的边界并返回最小外接矩形
{
	Mat GrayImage;
	cvtColor(SrcImage, GrayImage, COLOR_BGR2GRAY);//将SrcImage复制给GrayImage

	Mat GaussImage;
	//将GrayImage通过高斯滤波处理后存放到GaussImage中
	GaussianBlur(GrayImage, GaussImage, Size(3, 7), 3); //高斯滤波,对图像进行滤波操作(平滑操作、过滤操作,去噪操作)

	Mat EdgeImage;
	Canny(GaussImage, EdgeImage, 100, 200);//边缘检测

/*这段代码可省略,只是用来看效果。
	namedWindow("复制图", 0);
	resizeWindow("复制图", 600, 600);
	imshow("复制图", GrayImage);
	namedWindow("高斯滤波处理", 0);
	resizeWindow("高斯滤波处理", 600, 600);
	imshow("高斯滤波处理", GaussImage);
	namedWindow("边缘检测处理", 0);
	resizeWindow("边缘检测处理", 600, 600);
	imshow("边缘检测处理", EdgeImage);
*/
	vector<vector<Point>> Contours;
	vector<Vec4i> Hierarchy;
	findContours(EdgeImage.clone(), Contours, Hierarchy, RETR_TREE, CHAIN_APPROX_SIMPLE /*,Point(10,20)*/);//检测物体轮廓
	double Area = -1;
	int Index = -1;
	for (int i = 0; i < Contours.size(); i++)//得到最大的轮廓然后画出来,其实是一个点集
	{
		if (contourArea(Contours[i]) > Area)
		{
			Area = contourArea(Contours[i]);
			Index = i;
		}
	}
	//第三个参数为-1的时候就画出全部轮廓
	drawContours(SrcImage, Contours, -1, Scalar(0, 0, 255), 10, LINE_8);//画出物体的轮廓

	RotatedRect Rorect;
	Rorect = minAreaRect(Contours[Index]);  //得到被测物的最小外接矩形
	return Rorect;
}

double CalculateFocalDistance(Mat& Image)//计算拍照相机的焦距
{
	RotatedRect Marker;
	Marker = FindMarker(Image);
	double FocalLength = 0.0;
	double FocalWide = 0.0;
	FocalLength = (Marker.size.height * KNOWN_DISTANCE) / KNOWN_WIDTH;  //计算焦距单位为图像像素  依据公式: F=(P*D)/W   F-焦距   D-距离   P-像素宽度   W-目标的真实宽度(单位英寸)
	FocalWide = (Marker.size.width * KNOWN_DISTANCE) / KNOWN_HEIGHT;
	cout << "标定焦距:" << FocalLength << endl;
	cout << "标定焦距:" << FocalLength << endl;
	return FocalLength;
	//1857.71
}

有关图像的算法都是已经封装好了改参数直接用就行了,没有涉及到什么需要自己写的高难度算法。

下面还有一些比较各个边缘检测效果的算法代码:

玩玩就行,原理我也不清楚,只会用现成的。

#include"opencv2/opencv.hpp"
using namespace cv;
using namespace std;

void main()
{
	//显示原图像
	Mat image = imread("C:/Users/蒋林宏/Desktop/图片/240A.jpg");
	namedWindow("原图",0);
	resizeWindow("原图", 600, 600);
	imshow("原图", image);

	//canny边缘检测的简单用法
	Mat result;
	Canny(image, result, 150, 70);

	namedWindow("canny边缘检测后的图像",0);
	resizeWindow("canny边缘检测后的图像", 600, 600);
	imshow("canny边缘检测后的图像", result);

	//高阶的canny用法,转成灰度图,降噪,用canny,最后将得到的边缘作为掩码,拷贝原图到效果图上,得到彩色边缘图
	Mat grayimage, edge;
	cvtColor(image, grayimage, COLOR_BGR2GRAY);
	boxFilter(grayimage, edge, -1, Size(3, 3));
	Canny(edge, edge, 150, 70);
	Mat dst;
	dst = Scalar::all(123);
	image.copyTo(dst, edge);

	namedWindow("canny高阶边缘检测后的图像",0);
	resizeWindow("canny高阶边缘检测后的图像", 600, 600);
	imshow("canny高阶边缘检测后的图像", dst);

	//sobel算子边缘检测
	Mat x_result, y_result;
	Sobel(image, x_result, 0, 1, 0);
	Sobel(image, y_result, 0, 0, 1);
	addWeighted(x_result, 0.5, y_result, 0.5, 0, result);

	/*imshow("sobel边缘检测后x轴的图像", x_result);
	imshow("sobel边缘检测后y轴的图像", y_result);*/
	namedWindow("sobel边缘检测后的图像",0);
	resizeWindow("sobel边缘检测后的图像", 600, 600);
	imshow("sobel边缘检测后的图像", result);

	//laplacian边缘检测
	Laplacian(image, result, 0);
	namedWindow("laplacian边缘检测后的图像",0);
	resizeWindow("laplacian边缘检测后的图像", 600, 600);
	imshow("laplacian边缘检测后的图像", result);

	//scharr滤波器
	boxFilter(image, image, -1, Size(3, 3));
	Scharr(image, x_result, 0, 1, 0);
	Scharr(image, x_result, 0, 0, 1);
	addWeighted(x_result, 0.5, y_result, 0.5, 0, result);
	namedWindow("scharr边缘检测后的图像",0);
	resizeWindow("scharr边缘检测后的图像", 600, 600);
	imshow("scharr边缘检测后的图像", result);
	waitKey();
}

效果:

说实话有点阴森。

到此这篇关于C++利用opencv实现单目测距的实现示例的文章就介绍到这了,更多相关C++ opencv单目测距内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 使用UART与PC通信实现msp430g2553单片机超声波测距示例

    适用于msp430g2553单片机  使用到了hc-sr04超声测距模块,使用UART与PC通信. 复制代码 代码如下: #include <msp430.h>long current_time;//最近一次测得时间/*MyPro*/#define LED_1 BIT0                      #define SW_2 BIT3                       #define TA1_1 BIT2                      //TA0.1 HC-S

  • python实现Nao机器人的单目测距

    本文实例为大家分享了python实现Nao机器人单目测距的具体代码,供大家参考,具体内容如下 此代码适于用做对Nao机器人做视觉识别和测距实验,只提供关键代码部分,尝试利用cv2去优化代码会更加简洁哟! 此代码的主要功能: 1.初始姿态下,通过更换摄像头和转头去寻找目标 2.通过颜色阈值识别目标,计算目标与Nao的距离和角度 可以扩展功能: 1.在运动过程中对方向和距离进行多次测量和校正,提高准确度 2.找到目标后,通过对目标的测量,选择使用哪个脚去踢目标 #!/usr/bin/python2.

  • openlayers实现地图测距测面

    本文实例为大家分享了openlayers实现地图测距测面的具体代码,供大家参考,具体内容如下 项目背景vue-cli3.0 public下html需要引入文件 <link rel="stylesheet" href="<%= BASE_URL %>./css/gr-ol.css" type="text/css"> <script src="<%= BASE_URL %>./js/ol.js&qu

  • C++利用opencv实现单目测距的实现示例

    闲来无事,用C++做了一个简易的单目测距.算法用的cv自带的,改改参数就行.实现了读取照片测距,读取笔记本摄像头测距,读取视频测距三个功能. 为什么不用双目测距?因为没钱买摄像头-- 原理:相似三角形原理,已知焦距的情况下检测被测物在图片中所占的像素宽度来判断被测物与摄像头的距离,同时也可以得出被测物的大概长宽.注意:摄像头要和被测物体平行,如果不平行在侧面看来摄像头和物体之间的连线就与水平方向有一个夹角a,被测物体在图片中的大小会受到影响,从而影响测量效果. 误差分析:导致测量效果不好的原因有

  • Python Opencv实现单目标检测的示例代码

    一 简介 目标检测即为在图像中找到自己感兴趣的部分,将其分割出来进行下一步操作,可避免背景的干扰.以下介绍几种基于opencv的单目标检测算法,算法总体思想先尽量将目标区域的像素值全置为1,背景区域全置为0,然后通过其它方法找到目标的外接矩形并分割,在此选择一张前景和背景相差较大的图片作为示例. 环境:python3.7 opencv4.4.0 二 背景前景分离 1 灰度+二值+形态学 轮廓特征和联通组件 根据图像前景和背景的差异进行二值化,例如有明显颜色差异的转换到HSV色彩空间进行分割. 1

  • 利用OpenCV实现YOLO对象检测方法详解

    目录 前言 什么是YOLO物体检测器? 项目结构 检测图像 检测视频 前言 本文将教你如何使用YOLOV3对象检测器.OpenCV和Python实现对图像和视频流的检测.用到的文件有yolov3.weights.yolov3.cfg.coco.names,这三个文件的github链接如下: GitHub - pjreddie/darknet: Convolutional Neural Networks https://pjreddie.com/media/files/yolov3.weights

  • OpenCV实现单目尺寸估计的案例详解

    一个摄像头无法获取深度信息,两个摄像头双目标定可以实现双目测距. 但是我现在只有一个摄像头,如果想实现测量尺寸,我的思路:选一张固定尺寸的背景,例如一张A4纸,从图像中提取A4纸并进行透视变换进行图像矫正,A4纸的尺寸我可以确定,那么也可以确定图像中的物体长宽信息(高度忽略不计的情况,例如:卡片).当摄像头距离目标物距离L,此时像素所占面积为S,那么理论上来说,目标物图像变化后的面积为S1,则距离L1=(L/S)*S1,假定目标物上面贴有很多个面积为1平方厘米的正方形贴纸,那么获取四个角点和四条

  • Python利用OpenCV和skimage实现图像边缘检测

    目录 一.简介 二.opencv 实践 三.skimage 实践 一.简介 提取图片的边缘信息是底层数字图像处理的基本任务之一.边缘信息对进一步提取高层语义信息有很大的影响.大部分边缘检测算法都是上个世纪的了,OpenCV 的使用的算法是 Canny 边缘检测算法,大概是在 1986 年由 John F. Canny 提出了,似乎说明边缘检测算法的研究已经到达了瓶颈期.跟人眼系统相比,边缘检测算法仍然逊色不少. Canny 边缘检测算法是比较出色的算法,也是一种多步算法,可用于检测任何输入图像的

  • Java Socket聊天室编程(二)之利用socket实现单聊聊天室

    在上篇文章Java Socket聊天室编程(一)之利用socket实现聊天之消息推送中我们讲到如何使用socket让服务器和客户端之间传递消息,达到推送消息的目的,接下来我将写出如何让服务器建立客户端与客户端之间的通讯. 其实就是建立一个一对一的聊天通讯. 与上一篇实现消息推送的代码有些不同,在它上面加以修改的. 如果没有提到的方法或者类则和上一篇一模一样. 1,修改实体类(服务器端和客户端的实体类是一样的) 1,UserInfoBean 用户信息表 public class UserInfoB

  • Linux下利用Opencv打开笔记本摄像头问题

    新建test文件夹,文件夹存在test.cpp和CMakeLists.txttest.cpp#include <iostream> #include <string> #include <sstream> #include <opencv2/core.hpp> #include <opencv2/highgui.hpp> #include <opencv2/videoio.hpp> using namespace cv; using

  • 利用Opencv中Houghline方法实现直线检测

    利用Opencv中的Houghline方法进行直线检测-python语言 这是给Python部落翻译的文章,请在这里看原文. 在图像处理中,霍夫变换用来检测任意能够用数学公式表达的形状,即使这个形状被破坏或者有点扭曲. 下面我们将看到利用HoughLine算法来阐述霍夫变化进行直线检测的原理,把此算法应用到特点图像的边缘检测是可取的.边缘检测方法请参考这篇文章–边缘检测. Houghline算法基础 直线可以表示为y=mx+c,或者以极坐标形式表示为r=xcosθ+ysinθ,其中r是原点到直线

  • 利用OpenCV实现局部动态阈值分割

    利用OpenCV实现局部动态阈值分割,参考Halcon dyn_threshold算子的思路实现. #include "dialog.h" #include <QApplication> #include "cv.h" #include "highgui.h" #include <QDebug> int main(int argc, char *argv[]) { IplImage *img = cvLoadImage(&

  • 利用OPENCV为android开发畸变校正的JNI库方法

    需要为项目提供一套畸变校正的算法,由于需要大量的矩阵运算,考虑到效率和适时性,使用JNI开发,希望把有关数组短阵的处理的变换全部放入C语言中处理. 主要用于android移动端,大致的数据来源一是从camera直接读取YUV数据,一种是从第三方接读取RGB数据,另一种是直接对BITMAP进行处理. 1.考虑到硬件设备接口,第三方软件接口,图像接口,OPENCV接口,希望能够开发出通用的算法库,一劳永逸的解决各种复杂的使用场景,因此数据要支持YUV,支持ARGB,支持MAT 2android对BI

随机推荐